【MXNet学习16】在MXNet中使用Dropout

1、Dropout层应该加在什么地方

做分类的时候,Dropout 层一般加在全连接层后(输出层的全连接层后不用drop了),防止过拟合,提升模型泛化能力,而很少见到卷积层后接Dropout (原因主要是 卷积参数少,不易过拟合)

2、Dropout层作用分析

2.1、参考文献

  • Dropout是Srivastava等人在2014年的一篇论文中提出的一种针对神经网络模型的正则化方法 Dropout: A Simple Way to Prevent Neural Networks from Overfitting。
  • 首先是一篇外文博客(他的一系列写的都很好):Dropout Regularization For Neural Networks
  • 也有中文翻译版的:基于Keras/Python的深度学习模型Dropout正则项

2.2、作用

Dropout的做法是在训练过程中随机地忽略一些神经元。这些神经元被随机地“抛弃”了。也就是说它们在正向传播过程中对于下游神经元的贡献效果暂时消失了,反向传播时该神经元也不会有任何权重的更新
随着神

你可能感兴趣的:(MXNet)