神经网络之batch size的影响

注:摘自知乎
作者主页:https://www.zhihu.com/people/cheng-yin-36/activities
问题主页:https://www.zhihu.com/question/32673260
如有侵权烦请告知。

在合理范围内,增大 Batch_Size 有何好处?
  • 内存利用率提高了,大矩阵乘法的并行化效率提高。
  • 跑完一次 epoch(全数据集)所需的迭代次数减少,对于相同数据量的处理速度进一步加快。
  • 在一定范围内,一般来说 Batch_Size 越大,其确定的下降方向越准,引起训练震荡越小。
盲目增大 Batch_Size 有何坏处?
  • 内存利用率提高了,但是内存容量可能撑不住了。
  • 跑完一次 epoch(全数据集)所需的迭代次数减少,要想达到相同的精度,其所花费的时间大大增加了,从而对参数的修正也就显得更加缓慢。
  • 增大到一定程度,其确定的下降方向已经基本不再变化。

你可能感兴趣的:(神经网络之batch size的影响)