import torch
x_data = [1.0,2.0,3.0]
y_data = [2.0,4.0,6.0]
#学习率
learn_rate=0.01
#True:需要计算梯度
w1=torch.tensor([1.0])
w1.requires_grad=True
w2=torch.tensor([1.0])
w2.requires_grad=True
b=torch.tensor([1.0])
b.requires_grad=True
def forward(x):
return w1*x+w2*x+b
def loss(x,y):
y_test=forward(x)
return (y_test-y)*(y_test-y)
print("训练之前:",4,forward(4).item())
for epoch in range(100):
for x,y in zip(x_data,y_data):
#损失函数原型
l=loss(x,y)
l.backward()
#pytorch中,.item()方法 是得到一个元素张量里面的元素值
print("grad:",x,y,w1.grad.item(),w2.grad.item(),b.grad.item())
#orch.autograd包主要功能是完成网络反向传播时的链式求导
#过程大致为:先通过输入的tensor数据类型的变量在神经网络的前向传播中生成一张计算图,
#然后再根据这个计算图和输出结果准确计算出各个参数需要更新的梯度,并通过完成反向传播对参数进行梯度更新。
#在实践中使用autograd包中的variable类进行封装,封装之后计算图中每一个节点就是一个variable对象
#因此如果用X代表选中的节点,那么X.data 就是tensor数据对象,X.grad就是X的梯度对象,X.grad.data就是X的梯度数据值啦
w1.data=w1.data-learn_rate*w1.grad.data
w2.data=w2.data-learn_rate*w2.grad.data
b.data=b.data-learn_rate*b.grad.data
w1.grad.data.zero_()
w2.grad.data.zero_()
b.grad.data.zero_()
print("轮数:",epoch,l.item())
print("训练之后:",4,forward(4).item())