其他分享
首页 > 其他分享> > pytorch中的torch.autograd.backward()和torch.autograd.grad()

pytorch中的torch.autograd.backward()和torch.autograd.grad()

作者:互联网

参考

一文读懂torch.autograd.backward()作用及原理

torch.autograd学习系列之torch.autograd.grad()函数学习

 

主要是对这两个函数中的参数grad_tensors或grad_outputs不理解。其实就是雅克比矢量积的系数,有了这个系数就能将矢量梯度转变为一个标量。

这个系数一般设置为1,意思是直接把矢量梯度求和。

 

 

 

 

 

标签:系数,autograd,torch,pytorch,梯度,backward,grad
来源: https://www.cnblogs.com/jiangkejie/p/14297034.html