在机器学习中epoch, iteration, batch_size的含义区别

在机器学习中训练模型阶段遇到了这三个参数epoch, iteration, batch_size。

batch_size(批大小)指的是在SGD(随机梯度下降法)中选择的一个批次的大小

iterations(迭代)指的是训练跑完一个batch_size 样本

epoch(迭代次数)1个epoch等于使用训练集中的全部样本训练一次

learning_rate = 0.001

epochs = 60

batch_size = 100

X,y = dataload()

例如,这里的参数设置,epoch可里理解为模型确定前训练的次数。

batch_size,比如你一次训练中有1200个数据,那么每次送入模型训练的就是1200/100=12个数据。100指的就是送入次数。

iterations就是在一次训练中,需要迭代的次数。

例如,一共1200个训练数据,batch_size=100,那么迭代次数为12,这就是一个epoch的训练周期。

而本例子中,epoch=60就意味着将上述训练重复60次。

参考链接

https://blog.csdn.net/LoseInVain/article/details/79348965

你可能感兴趣的:(python,解决方案,机器学习,深度学习,epoch,batch_size,iterations)