过拟合解决方案

增加训练的数据量

L1或L2正则化,在原来的cost基础上加上一个正则项

dropout,随机忽略某些神经元,dropout(0.6)说明随机有60%的神经元被关闭(随机性失活)

数据集的准备,加入噪点,增白,batchsize,shuffle

Batch Normalization

你可能感兴趣的:(过拟合解决方案)