神经网络训练中的epoch和batch概念

总是忘了又忘,再写一遍加强记忆。
在神经网络训练中,"epoch"和"batch"是两个基本的概念:
Epoch: 一个epoch代表的是整个数据集被遍历一次的过程。在一个epoch中,网络会对每一个训练样本学习一次,然后更新权重。训练多个epoch是为了使得模型更好地学习数据集中的特征和模式
Batch: Batch是指一次训练过程中,网络同时处理的数据样本的数量。例如,如果你有1000个训练样本,而你的batch size是100,那么需要10个batch来完成一个epoch的训练。Batch size是一个重要的超参数,因为它直接影响到模型权重更新的次数和每次更新时使用的样本数。较小的batch size通常能提供更准确的梯度估计,但可能导致训练过程更加波动。较大的batch size通常能提高内存的利用率和训练速度,但可能会导致内存不足或者优化效果变差
通常,在训练神经网络时,会设置一个epoch参数和一个batch size参数,并在每个epoch内遍历多个batch。

你可能感兴趣的:(神经网络,batch,人工智能)