搏彩网站开发建设,网站名称及网址,餐饮企业网站建设方案书,展厅搭建公司import torchx_data torch.tensor([[1.0],[2.0],[3.0]])
y_datatorch.tensor([[2.0],[4.0],[6.0]])#重点在于构造计算图 pytorch会自动计算梯度
#Zwxb 就是一个线性单元class LinearModel(torch.nn.Module):#Module的对象会自动实现backword()的过程#构造函数def __init__(self…import torchx_data torch.tensor([[1.0],[2.0],[3.0]])
y_datatorch.tensor([[2.0],[4.0],[6.0]])#重点在于构造计算图 pytorch会自动计算梯度
#Zwxb 就是一个线性单元class LinearModel(torch.nn.Module):#Module的对象会自动实现backword()的过程#构造函数def __init__(self) :super(LinearModel, self).__init__()#Linear()构建ywxb且继承于Module自动完成backword()的过程self.lineartorch.nn.Linear(1,1)#前馈计算的函数 必须有def forward(self,x):#调用linear的__call__()在此函数中会调用forward()y_predself.linear(x)return y_pred
#CallModel 可以直接调用
modelLinearModel()#调用损失函数
criteriontorch.nn.MSELoss(size_averageFalse)
#优化器lr学习率
optimizertorch.optim.SGD(model.parameters(),lr0.01)
for epoch in range(1000):y_predmodel(x_data)losscriterion(y_pred,y_data)print(epoch,loss.item())#所有权重的梯度归0optimizer.zero_grad()#进行反向传播loss.backward()#根据梯度、学习率进行自动更新optimizer.step()
print(W,model.linear.weight.item())
print(b,model.linear.bias.item())
#Test Model
x_testtorch.Tensor([4.0])
y_testmodel(x_test)
print(y_pred,y_test.data)