李宏毅一天搞懂深度学习2016学习总结

I 总体来说,深度学习分三步:

定义方法(网络结构)、选择损失函数、挑选出最佳的优化方法。

II 训练DNN的技巧


1. 没有办法得到很好的训练结果 --- 重新选择训练方式

2. 没有办法得到很好的测试结果 --- 往往由于过度拟合导致,需要重新定义方法(网络结构)

训练集效果不好

优化训练方法的手段:

1. 选择合适的Loss function:使用Cross Entropy效果要优于Mean Square Error

2. Mini-batch: 每次训练使用少量数据而不是全量数据效率更高

3. Activation Function:使用ReLU替代Sigmoid可以解决梯度消失的问题,可以训练更深的神经网络

4. Adaptive Learning Rate:可以随着迭代不断自我调整,提高学习效率 (Adagrad算法)

5. Momentum: 可以一定程度上避免陷入局部最低点的问题。


测试集效果不好

避免过度拟合(overfitting)的方法:

1. Early Stopping:使用cross validation的方式,不断对validation data进行检验,一旦发现预测精度下降则停止。

2. Weight Decay:参数正则化的一种方式?

3. Dropout:通过随机去掉一些节点的连接达到改变网络形式,所以会产生出多种网络形态,然后汇集得到一个最佳结果

4. Network Structure: 例如CNN等其他形态的网络。

III神经网络变体

CNN

RNN

LSTM

GRU

等等

总的结构:


你可能感兴趣的:(李宏毅一天搞懂深度学习2016学习总结)