batch_size, iteration迭代次数, epochs

假设样本数量为2000, batch_size为500
epochs一次指的是训练完全部样本一次,那么这里就是指训练完2000个样本
batch_size: 当样本数很大时, 有时需要将样本分为N个batch, 这个N就是nb_batch(batch数量), 此时一个batch中包含的样本数量即是batch_size
iteration迭代次数:一个epoch中训练batch的次数,即训练完一个batch就是iteration一次, 所以应该等于nb_batch(batch数量)。那么按照这里的假设, 一个epoch需要训练2000个样本, 一把batch需要训练500样本, 即一个iteration需要训练500样本, 那么训练完一个epoch需要4个iteration(2000/500)。
所以本人觉得这就是为什么相同epoch次数, batch_size大, 训练时间会比batch_size小时短。因为batch_size大, 训练完一个epoch迭代次数少。

你可能感兴趣的:(batch_size, iteration迭代次数, epochs)