batchsize和模型精度的影响

理论上说batch_size=1是最好的,不过实际上调的时候,会出现batch_size太小导致网络收敛不稳定,最后结果比较差。而batch_size太大会影响随机性的引入。

对于精细的分类,可以将batch调小,这样可以提高精度

你可能感兴趣的:(batchsize和模型精度的影响)