其他分享
首页 > 其他分享> > torch.optim.SGD()各参数的解释

torch.optim.SGD()各参数的解释

作者:互联网

pytorch中文文档摘抄的笔记。

class torch.optim.SGD(params, lr=, momentum=0, dampening=0, weight_decay=0, nesterov=False)[source]

实现随机梯度下降算法(momentum可选)。

Nesterov动量基于On the importance of initialization and momentum in deep learning中的公式.

参数:

例子:

>>> optimizer = torch.optim.SGD(model.parameters(), lr=0.1, momentum=0.9)
>>> optimizer.zero_grad()
>>> loss_fn(model(input), target).backward()
>>> optimizer.step()

 

标签:torch,optim,float,lr,动量,SGD,momentum
来源: https://www.cnblogs.com/peixu/p/13194328.html