2021-09-09
作者:互联网
caffe中的iteration,batch_size, epochs理解
举个例子吧~
比如现在训练集一共是60000张图片
1.batch_size:该值是一个超参数,意味着用户希望模型一次能训练多少张图片
2.iteration:该值也是一个超参数,一般在caffe中的solver.prototxt设置,表示用户要进行多少次的训练,假设batch_size设置为100张,iteration设置为1w轮,那么就表示模型一共要将10w*100张图片进行训练,由于超过总图片数量,那么就会进行多次循环训练。
3.epochs:该值不是一个超参数,它是由batch_size和图片总数有关,img_num / batch_size = epochs,假设batch_size设置为100张,那么epochs = 60000 / 100 = 600轮,即将所有图片全部训练一遍所需要的次数。
标签:训练,09,batch,epochs,2021,100,图片,size 来源: https://blog.csdn.net/weixin_42206075/article/details/120199708