其他分享
首页 > 其他分享> > tensorflow训练调参

tensorflow训练调参

作者:互联网

如何解决神经网络训练时loss不下降的问题

https://blog.ailemon.me/2019/02/26/solution-to-loss-doesnt-drop-in-nn-train/

1.batch_size影响很大!!

batch_size不是越大越好

一般来说,越大的batch-size使用越大的学习率。

2.shuffle数据之后loss开始上下波动,一直跳动,减小lr之后也不行

batch_size小?

3.梯度爆炸和消失https://blog.csdn.net/qq_25737169/article/details/78847691!!!!

 

 

标签:loss,训练,调参,batch,blog,https,tensorflow,越大,size
来源: https://blog.csdn.net/weixin_40532625/article/details/95984025