深度学习笔记-吴恩达

深度学习-吴恩达

文章目录

  • 深度学习-吴恩达
  • 前言
  • 一、神经网络
    • 1.随机初始化
    • 2.深层神经网络的前向传播
    • 3.核对矩阵的维数
    • 4.为什么使用深层表示
    • 5.搭建深层神经网络块
    • 6. 前向传播与反向传播
    • 7. 参数与超参数


前言

随着人工智能的不断发展,深度学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了深度学习的基础内容。


一、神经网络

1.随机初始化

问题: 为何初始化参数(w和b)不能为0?
假设输入为两个特征,网络存在两个隐藏单元。参数为0 ,此时两个隐藏单元始终都在做相同的计算,两个隐藏单元对输出的影响也一样大;当在反向传播时,对两个激活函数求导时结果也是相同的。所以在这种情况下,多个隐藏单元就显得无意义。
正确做法:
深度学习笔记-吴恩达_第1张图片

2.深层神经网络的前向传播

深度学习笔记-吴恩达_第2张图片
深度学习笔记-吴恩达_第3张图片
深度学习笔记-吴恩达_第4张图片

3.核对矩阵的维数

深度学习笔记-吴恩达_第5张图片
深度学习笔记-吴恩达_第6张图片

深度学习笔记-吴恩达_第7张图片
维度总结:

深度学习笔记-吴恩达_第8张图片
深度学习笔记-吴恩达_第9张图片
其中,小写针对单个样本的特征,大写针对所有样本的特征。

4.为什么使用深层表示

深度学习笔记-吴恩达_第10张图片
先从边缘特征入手进行探测,其次对脸的五官进行探测,最后将五官组合成脸部进行探测。在神经网络的前几层一般学习一些较低层次的简单特征,后几层再讲简单的特征结合起来,去探测更加复杂的内容。

5.搭建深层神经网络块

深度学习笔记-吴恩达_第11张图片
如上图所示,上半部分为前向传播的过程,下半部分为反向传播的过程。在前向传播中,a[l-1]作为输入,在参数w[l]和b[l]的作用下,输出a[l]并且缓存z[l];在反向传播过程中,da[l]作为输入,在参数w[l]和b[l]的作用下,输出da[l-1]并且缓存dw[l]和db[l]。

深度学习笔记-吴恩达_第12张图片
如上图所示,为神经网络正向传播和反向传播的具体流程图,也为程序代码编写的逻辑图。

6. 前向传播与反向传播

反向传播公式(对代价函数求导,具体求导过程省略,此处直接给出结果):
深度学习笔记-吴恩达_第13张图片
举例总结图:
深度学习笔记-吴恩达_第14张图片

7. 参数与超参数

超参数:例如学习率、隐藏层数、隐藏单元数、激活函数、momentum和mini batch等都可以称之为超参数,因为这些参数都最终决定着W和b。
深度学习笔记-吴恩达_第15张图片

你可能感兴趣的:(深度学习)