Epoch、Iteration、Batchsize之间的关系

  • Epoch: 所有训练样本都已输入到模型中,就是把所有训练图片训练完一遍,称为一个Epoch
  • Iteration:一批样本输入到模型中,称之为一个Iteration
  • Batchsize:每一批里面包含多少张图片,决定一个Epoch有多少个Iteration

数据集共有5199张,按9 :1划分为训练集和验证集,其中训练集4679张,验证集520张;

drop_last:当样本数不能被batchsize整除时,是否舍弃最后一批数据

设置 drop_last = False,不舍弃最后一批数据

batch-size=8,一个Epoch中有585个Iteration,一个Iteration对应8张图片,585×8=4680

batch-size=16,一个Epoch中有293个Iteration,一个Iteration对应16张图片,293×16=4688

可以看出,增大batch-size会增加在训练过程中对GPU显存的占用

******不晓得怎么设置 drop_last = True,舍弃最后一批数据,有知道的小伙伴可以交流一下

你可能感兴趣的:(batch,caffe,开发语言)