深度学习避免过拟合方法整理

weightdecay:几乎都在使用,作用是限制权重范围
dropuout:主要用在全连接层,作用是丢弃多少个神经元;一般来说,增加隐藏层数使模型先达到过拟合再droupout的效果会比减少隐藏层数避免过拟合好。
BN:用于卷积层

有待完善… …

你可能感兴趣的:(人工智能,深度学习,人工智能,神经网络)