【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)

文章目录

  • 1 激活函数
    • 1.1 sigmoid
    • 1.2 tanh
    • 1.3 ReLU函数
    • 1.4 ReLU函数的变种
  • 2 Dropout
    • 2.1 原理
    • 2.2 实验
    • 2.3 作者重点分析的一些特点

1 激活函数

1.1 sigmoid

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第1张图片

1.2 tanh

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第2张图片
优缺点:
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第3张图片
引入更简单更高效的函数:

1.3 ReLU函数

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第4张图片
softplus导数正好为sigmoid。

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第5张图片

1.4 ReLU函数的变种

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第6张图片

2 Dropout

2.1 原理

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第7张图片
最后一种方法太耗时。
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第8张图片
去掉神经元的同时,输入输出也要去掉。-》得到一个子网络。
训练的时候都会在神经网路中抽样。

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第9张图片
r1,r2,r3 取0 or 1.
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第10张图片
Dropout可以与其他方法混合使用。

2.2 实验

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第11张图片
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第12张图片
用dorpout之后,units(参数量)明显增大。
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第13张图片
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第14张图片
+L2正则以此类推。

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第15张图片
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第16张图片
CNN草图:真草图!
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第17张图片
在CNN和max pooling基础上,在全连接层加入dropout后效果更佳。

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第18张图片
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第19张图片
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第20张图片
在6层神经网路上加入dropout,同理。

2.3 作者重点分析的一些特点

【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第21张图片
学习到更通用的特征。
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第22张图片
大量的神经元都没有被激活,位于0周围。
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第23张图片
左图过拟合。右图控制期望神经元数量(左图控制神经元数量)。
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第24张图片
【Deep Learning笔记】神经网络的优化解读(看不懂你来打我~!)_第25张图片
这张图说明dropout的权值缩放效果很好。

你可能感兴趣的:(Deep,learning)