pytorch——反向传播2
作者:互联网
#模型为w1*x*x+w2*x+b
import torch
x_data=[1,2,3]
y_data=[2,4,6]
#三个tensor
w1=torch.tensor([1.0])
w1.requires_grad=True
w2=torch.tensor([2.0])
w2.requires_grad=True
b=torch.tensor([1.0])
b.requires_grad=True
def forward(x):
return w1*x*x+w2*x+b
def loss(x, y):
y_pred = forward(x)
return (y_pred - y) * (y_pred - y)
print("训练之前",4,forward(4).item())
#训练过程
for epoch in range(100):
for x,y in zip(x_data,y_data): #把x_data和y_data整理成一个样本(x,y)
l=loss(x,y) #前馈计算,并计算出损失值,张量
l.backward() #后向计算,自动把计算图中需要梯度的地方求出,存到tensor的w中,释放计算图,下次进行loss计算时,在准备下一次的计算图
print('grad:',x,y,w1.grad.item(),w2.grad.item())
w1.data=w1.data-w1.grad.data*0.01 #张量loss中包含tensor类型的data和grad,要获得梯度(数值),而w.grad计算图,需要w.grad.data数值
w1.grad.data.zero_()
w2.data = w2.data - w2.grad.data * 0.01 # 张量loss中包含tensor类型的data和grad,要获得梯度(数值),而w.grad计算图,需要w.grad.data数值
w2.grad.data.zero_()
b.data = b.data - b.grad.data * 0.01 # 张量loss中包含tensor类型的data和grad,要获得梯度(数值),而w.grad计算图,需要w.grad.data数值
b.grad.data.zero_()
print("progress",epoch,l)
print("训练之后",4,forward(4).item())
标签:loss,tensor,grad,传播,pytorch,反向,w2,w1,data 来源: https://www.cnblogs.com/xinrui-wang/p/15862591.html