其他分享
首页 > 其他分享> > 深度学习-minibatch

深度学习-minibatch

作者:互联网

鉴于自己对minibatch一直以来的误解,说明一下minbatch的具体做法。

batch是一次运行所有数据集,只更新一次梯度下降

minibatch是一次运行一个minibatch,更新一次梯度,整个数据集,会更新多次,通常来说,运行更快。 原因可能是w的维数小,参数数量不多。

如下图所示: 右边的图J{t}可能会上升,因为训练的样本不一样,之间会产生噪音误差,但是总体趋势是下降的。

batch size的选择:

如果是整个训练集,他会不断的收敛到最小,参数过多。

batch size =1,随机梯度下降,不一定会收敛,同时没有用到向量的并行化。

 

标签:一次,梯度,batch,更新,学习,minibatch,深度,size
来源: https://www.cnblogs.com/irisinsnow/p/15358394.html