tensorflow训练调参
作者:互联网
如何解决神经网络训练时loss不下降的问题
https://blog.ailemon.me/2019/02/26/solution-to-loss-doesnt-drop-in-nn-train/
1.batch_size影响很大!!
batch_size不是越大越好
一般来说,越大的batch-size使用越大的学习率。
2.shuffle数据之后loss开始上下波动,一直跳动,减小lr之后也不行
batch_size小?
3.梯度爆炸和消失https://blog.csdn.net/qq_25737169/article/details/78847691!!!!
标签:loss,训练,调参,batch,blog,https,tensorflow,越大,size 来源: https://blog.csdn.net/weixin_40532625/article/details/95984025