pytorch中的torch.autograd.backward()和torch.autograd.grad()
作者:互联网
参考
一文读懂torch.autograd.backward()作用及原理
torch.autograd学习系列之torch.autograd.grad()函数学习
主要是对这两个函数中的参数grad_tensors或grad_outputs不理解。其实就是雅克比矢量积的系数,有了这个系数就能将矢量梯度转变为一个标量。
这个系数一般设置为1,意思是直接把矢量梯度求和。
标签:系数,autograd,torch,pytorch,梯度,backward,grad 来源: https://www.cnblogs.com/jiangkejie/p/14297034.html