0.1 论文介绍和作者介绍
0.2 论文意义和主要内容
0.3 论文结构:
0.4 前期知识储备
0.5 课程安排和学习建议
0.6 学习建议
1.引言
解释: 深度学习方法是拥有多级表示的学习方法,通过组合简单但非线性的模块来获得,每个模块将表示一个级别,从原始的输入开始转换为更高的表示,稍微更多的抽象层次呢,能够足够地组合这种变换,可以学习非常复杂的功能
简单的方式理解: 用深度学习的方式和方法,多层的神经网络,来找到一个函数,这个函数能够被学习,这个函数最后能够表示非常复杂的功能比如语音识别,比如图片识别.
1.1 多层神经网络
1.2 深度学习应用领域
1.3 深度学习的应用举例
2 监督学习(Supervised Learning)
解释: 我们需要计算一个目标函数来测量出分数与所需分数之间的误差,其实就是距离,然后内部修改其内部的参数减少此错误(BP反向传播),这些可调的参数,我们通常称之为权重,是实数,可以看作是定义机器输入与输出功能的旋钮.在典型的机器学习系统中,可能存在这种可以调节的数以亿计的权重.以及可以训练机器数以亿计的这些示例.
简单解释:我们有答案,也有数据,需要找到答案和数据之间的规律,而这些规律是什么,就好比调节收音机的旋钮一样,需要去调节参数,使用的是BP算法
2.1 梯度下降算法
直观解释:从山上某点到山谷的过程
3 反向传播算法(Backpropagation)(P4-P6)
解释:
图(a) 仅仅包括2个输入层,2个隐藏层,1个输出层的示例
图(b) 链式法则
图(c) 正向传播
图(d) 反向传播
3.1 链式法则(Chain Rule)
链式法则:
Case1:
x的微小变化引起y的微小变换,同时y的微小变换有引起z的微小变化
Case2:
该case表明链式法则可能不仅仅是影响一个因素,也可能影响多个因素
3.2 反向传递(Backward transfer)
Forward Pass: 从前向后,是一个计算的过程
Backward Pass: 从后向前,是一个误差传递的过程,误差传递的过程也就是学习的过程
4 卷积神经网络 CNN
萨摩耶犬的图像识别
- rgb三个层次
- 识别是萨摩耶还是狼狗
- 信息自下而上的流动
- 较低级别的特征充当边缘的检测器,并输出每一个图像类别的计算分数
- 通过不同层来进行特征的获取
4.1 什么是CNN?
卷积神经网络的过程:
1. 预处理的数据用于卷积的计算,加上bias得到局部特征,其卷积核的尺寸和个数对模型的效果有一定的影响
2. 将第1步的输出结果进行非线性函数的处理,如目前常用的ReLU函数.
3. 进行池化操作,所谓池化操作实际是取出区域的平均值或者最大值,保留显著的特征,提升对激变的容忍能力
4. 全连接层,表示对结果的确认.
动画演示如下:
5 CNN理解图片(Understanding Image by CNN)
6.分布式表示和语言模型(Language processing)
6.1 理解Embedding(Understanding Embedding)
独立热编码: 1个位置代表一个词意,但是不能代表一个词真正的意思,one-hot 会维度很大
Word Embedding: 相近的词汇有相近的意思
- 句子也可以进行Embedding
- word embedding
- sentence embedding
6.2 Word2Vec算法(2013提出)
- 循环神经网络
7.1 理解RNN
循环神经网络的特点如上所述:
- 时间序列
- 隐藏层会保持以前的数据
- 带有存储功能的神经网络
7.2 LSTM(Long Short-term Memory)
1. 特殊的RNN,也是门限RNN
2. 主要解决RNN训练过程中梯度消失和梯度爆炸的问题
3. 比普通的RNN更好
- 未来(Future)
问题:
提高入读门槛,多看顶会论文
看论文先读摘要,绪论以及结论部分,了解论文的核心内容,契合研究方向进行精度细粒读
代码复现可取github
调参技巧:
如何确定一层卷积使用多少个卷积核
为什么CNN可以提取特征?卷积是如何把特征提取出来的?
激活函数的作用:
损失函数:
自监督学习与无监督学习的本质区别
全连接层的作用:
卷积核的本质就是神经元间连接参数的权重
反向传播本质上是不断优化卷积核里的数值,最终提取到图像的特征
激活函数在卷积神经网络中的作用:
词汇学习:
注: 图片均来自深度之眼