《深度学习Ng》课程学习笔记01week3——浅层神经网络

http://blog.csdn.net/u011239443/article/details/77884830

3.1 神经网络概览

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第1张图片

3.2 神经网络表示

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第2张图片

3.3 计算神经网络的输出

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第3张图片

对应的正向传播公式:

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第4张图片
《深度学习Ng》课程学习笔记01week3——浅层神经网络_第5张图片

3.4 多个例子中的向量化

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第6张图片

3.5 向量化实现的解释

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第7张图片
《深度学习Ng》课程学习笔记01week3——浅层神经网络_第8张图片

3.6 激活函数

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第9张图片

更多可以参阅《神经网络-激活函数对比》

3.7 为什么需要非线性激活函数?

如果没有非线性激活函数,那么神经网络其实就是只是单个神经元的线性组合:


《深度学习Ng》课程学习笔记01week3——浅层神经网络_第10张图片

3.8 激活函数的导数

sigmoid

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第11张图片

Tanh

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第12张图片

ReLU

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第13张图片

3.9 神经网络的梯度下降法

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第14张图片
《深度学习Ng》课程学习笔记01week3——浅层神经网络_第15张图片

更多可见 : http://blog.csdn.net/u011239443/article/details/76680704#t2

3.10 (选修)直观理解反向传播

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第16张图片

总结

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第17张图片

3.11 随机初始化

初始化W不能设为0,否则同一层的神经元的改变相同,使得类似于单个神经元:


《深度学习Ng》课程学习笔记01week3——浅层神经网络_第18张图片

解决方案,随机生成绝对值较小的初始值(初始值绝对值太大,会使得S型激活函数的绝对值趋于0,从而使得训练缓慢):


《深度学习Ng》课程学习笔记01week3——浅层神经网络_第19张图片

《深度学习Ng》课程学习笔记01week3——浅层神经网络_第20张图片
这里写图片描述

你可能感兴趣的:(《深度学习Ng》课程学习笔记01week3——浅层神经网络)