花书-卷积神经网络

知识框架

花书-卷积神经网络_第1张图片

卷积

花书-卷积神经网络_第2张图片

池化(引入了平移不变性,)

花书-卷积神经网络_第3张图片

全局连接层(多层感知机)

花书-卷积神经网络_第4张图片

卷积神经网络

花书-卷积神经网络_第5张图片

应用(分类上)

图像分类大赛(ResNEt网络比人类识别图像的性能还要好,深度也越来越深)

花书-卷积神经网络_第6张图片

各大CNN模型

花书-卷积神经网络_第7张图片

重难点

花书-卷积神经网络_第8张图片

参考资料:(CNN祖爷爷-LeNet,ResNet)

花书-卷积神经网络_第9张图片

花书-卷积神经网络_第10张图片

花书-卷积神经网络_第11张图片

非线性激活函数:(隐含层越多,非线性表示的能力也越强;)

花书-卷积神经网络_第12张图片

神经元个数越多,隐含层的数量越多,非线性的变换越多,对非线性的表示越强,但同时也会造成过拟合。

花书-卷积神经网络_第13张图片

正则化或者Droupt的方法解决过拟合,大而化的学到底层的知识,而不是学到其噪音的东西。

花书-卷积神经网络_第14张图片

线性求和加入非线性的运算(sigmoid也叫挤压函数)

花书-卷积神经网络_第15张图片

不要做宽而浅的网络而是要做窄而深的网络

多层神经网络等价于全连接层(判断一篇文章是否是好文章)(线性分类模型无法分类非线性模型)

花书-卷积神经网络_第16张图片

局部感受野(底层到高层的变化,直到分类),LetNet(邮政编码识别)

花书-卷积神经网络_第17张图片

 

原先错误的想法(丢失了图像的原信息,空间信息)

花书-卷积神经网络_第18张图片

于是引入了卷积的操作(卷积层可以认为是对特征的提取,池化是将图像变小了,大而化之的变模糊了,连接层是融合处理。)

花书-卷积神经网络_第19张图片

卷积操作(绿色输入部分,黄色感受野,红色卷积核)

花书-卷积神经网络_第20张图片

补0,padding操作(补0的作用使得特征不会越来越小)

花书-卷积神经网络_第21张图片

每一个卷积核生成一个feature map,多少个卷积核生成多少个feature map

花书-卷积神经网络_第22张图片

三维的操作

花书-卷积神经网络_第23张图片

 

花书-卷积神经网络_第24张图片

花书-卷积神经网络_第25张图片

卷积核是检测眼睛的:提取定义的卷积,符合的话,则feature map值就很高。(卷积核的作用)

花书-卷积神经网络_第26张图片

花书-卷积神经网络_第27张图片

卷积层  (y=wTx+b)有多少个卷积核就有多少个feature map,图片大小取决于下采样和padding。

花书-卷积神经网络_第28张图片

 

池化层(引入平移不变性,具备泛化能力):选出最有代表性的特征。池化层使得卷积神经网络具有平移不变性。

池化的作用:1.减少参数量;2.防止过拟合;3.平移不变性;

花书-卷积神经网络_第29张图片

花书-卷积神经网络_第30张图片

花书-卷积神经网络_第31张图片

花书-卷积神经网络_第32张图片

全连接层:全连接层一般用在最后,就是将前面的特征进行汇总和交融,得到最后的结果。

花书-卷积神经网络_第33张图片

卷积核的核数都在往上增加,得到的特征越来越细分。输出层就是一个线性分类。(输出层有10个神经元就有10个分类)

花书-卷积神经网络_第34张图片

LeNet-5网络:输出层是10分类的形式。

花书-卷积神经网络_第35张图片

CNN的反向传播-梯度更新:在反向传播的过程中,对每一个权重梯度进行更新,使得损失最小化。

卷积神经网络保持平移,缩放,变形不变性的原因。(深度学习的弊端是可解释性不强,尝试用各种办法打破这个黑盒子。使得可解释性。)

花书-卷积神经网络_第36张图片

 提取的特征越到高层越抽象画,比如对眼睛更加敏感的特征。(学计算机视觉要学一手知识,不能学二手知识。论文是重要载体。论文与代码是学术的爸爸与妈妈。)

VGG可视化:(越到高层越复杂,越具有不可解释性。)有多少个卷积核就会产生多少个feature map.

计算输出大小((输入的宽-核的宽)/步长+1)

花书-卷积神经网络_第37张图片

使得输入与输出的大小一致,P的计算公式。

花书-卷积神经网络_第38张图片

1x1的卷积:

花书-卷积神经网络_第39张图片

卷积的运算。每次一个卷积操作就是一个神经元,一个神经元的计算。

卷积神经网络的三大特征(局部连接,参数共享,下采样)

花书-卷积神经网络_第40张图片

最大池化

花书-卷积神经网络_第41张图片

平均池化

花书-卷积神经网络_第42张图片

花书-卷积神经网络_第43张图片

卷积-池化-卷积-池化-展平-全连接层-激活函数ReLU-Droput-softmax

花书-卷积神经网络_第44张图片

 

本章的目的是说明卷积网络提供的各种工具。

9卷积网络

9.1卷积运算

卷积神经网络,是一种用来处理具有类似网络结构的数据的神经网络。例如时间序列(认为是在时间轴上有规律地采样形成的一维网格)和图像数据(看做二维的像素网络)。

卷积是一种特殊的线性运算。卷积网络是指那些至少在网络的一层中使用卷积运算来替代一般的矩阵乘法运算的神经网络。

卷积运算通常用星号表示:

术语中,卷积的第一个参数(函数x)叫做输入,第二个参数(函数w)叫做核函数。输出称作特征映射。

在机器学习的应用中,输入通常是多维数组的数据,核通常是由学习算法优化得到的多维数组的参数。

在图像中,如果把一张二维的图像I作为输入,需要使用一个二维的核K:

卷积是可交换的,可等价地写作:

卷积运算可交换性的出现是因为将核相对输入进行了翻转,从m增大的角度来看,输入的索引增大,核的索引在减小:

核函数的维度m是行数,n是列数,输入I的行数i+m,列数j+n.

一个在二维张量上的卷积运算:

花书-卷积神经网络_第45张图片

9.2动机

卷积运算通过三个重要思想帮助改进机器学习系统:稀疏交互,参数共享,等变表示。以及,卷积提供一种大小可变的输入方法。

稀疏交互:卷积网络具有稀疏交互的特征。这是使核的大小远小于输入的大小达到的。在图像中,处理一张图像时,输入的图像可能包含成千上万个像素点,我们通过只占用几十到上百个像素点的核检测一些小的有意义的特征,如图像的边缘。如果有m个输入和n个输出,矩阵乘法需要mxn个参数并且相应算法的时间复杂度为O(mxn).

参数共享:卷积运算中的参数共享保证我们只需要学习一个参数集合,而不是对于每一个位置都需要学习一个单独的参数集合。没改变前向传播的运行时间(O(kxn)),但显著把模型存储需求降低至k个参数,并且k比m小很多个数量级,因此卷积在存储需求和统计效率极大地优于稠密矩阵乘法运算。参数共享如图实现;

等变表示:卷积运算在处理时间序列数据时,通过卷积可以得到一个由输入中出现不同特征的时刻所组成的时间轴。把输入中的一个事件向后延时,在输出中仍然会有完全相同的表示。

花书-卷积神经网络_第46张图片

9.3池化(把大图变小图,具有平移不变性)

最大池化:最大池化给出相邻矩形区域内的最大值。池化函数使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出。

其它常用的池化函数包括相邻形区域内的平均值,L2范数,基于中心像素距离的加权平均函数。

卷积网络用于分类的结构示例:

花书-卷积神经网络_第47张图片

维度变化:输入图像→卷积的输出(ReLU)→步幅为4的池化输出→卷积的输出(ReLU)→步幅为4的池化的输出→变形为向量的输出(16384个单元)→softmax的输出(1000个类的概率)。

原理:处理固定大小的图像的卷积神经网络。在卷积层和池化层几层交替之后,卷积特征映射的张量被重新变形以展平空间维度。网络的其余部分是一个普通的前馈网络分类器。最后的卷积层为每个类输出一个特征映射。

将特征映射进行平均得到的单个值,提供了顶部softmax分类器的变量。

9.4卷积与池化作为一种无限强的先验

9.5基本卷积函数的变体

卷积:在神经网络上下文讨论卷积时,通常不是特指数学文献中使用的那种标准的离散卷积运算。

单个卷积核:具有单个核的卷积只能提取一种类型的特征。

输入:输入通常不只是实值的网络,是由一系列观测数据的向量构成的网格。例如,一幅彩色图像在每一个像素点都会有红,绿,蓝三种颜色的亮度。

输出:在多层的卷积网络中,第二层的输入是第一层的输出,通常在每个位置包含多个不同卷积的输出。

软件使用:当处理图像时,通常把卷积的输入输出都看做3维的张量,其中一个索引用于标明不同通道,另外两个索引标明在每个通道上的空间坐标。软件使用批处理模式,所以会使用4维的张量,第4索引用于标明处理不同实例。

卷积核计算:如果输入图像宽度是m,核的宽度是k,输出的宽度会变成m-k+1。

卷积的运算:

花书-卷积神经网络_第48张图片

下采样的运算:下采样是起到针对数据大小之间进行压缩的作用。

s称为下采样的步幅。

多层感知机:使用一些局部连接的网络层,多层感知机对应的邻接矩阵是相同的,每一个连接都有它自己的权重,用一个6维的张量W来表示。W的索引分别是:输出通道i,输出的行j和列k,输入通道l,输入行偏置m,列偏置n。

局部连接层的线性部分表示为:

转置运算返回的输出的大小取决于三个方面:零填充的策略,前向传播运算的步幅以及前向传播的输出映射的大小。

花书-卷积神经网络_第49张图片

计算所需的所有梯度:卷积,从输出到权重的反向传播和从输出到输入的反向传播。

图,局部连接层,平铺卷积核标准卷积的比较。此图使用两个像素宽的核。(上)局部连接层没有共享参数,(中)平铺卷积有t个不同的核,其中一个核标记为‘a’和‘b’的边,另一个标记为‘c’和‘d’的边.(下)传统卷积只有一个核,被应用到各个地方,各种使用具有标记为‘a’和‘b’的边。

花书-卷积神经网络_第50张图片

9.6结构化输出

卷积神经网络可以用于输出高维的结构化对象,而不只是预测分类任务的类标签或回归任务的实数值。

模型可以产生张量S,其中Si,j,k是网络的输入像素(j,k)属于类i的概率。这允许模型标记图像中的每个像素。

维度的较少:网络空间维数的最大减少来源于使用大步幅的池化层。

9.7数据类型

花书-卷积神经网络_第51张图片

9.8高效的卷积运算

卷积等效于使用傅里叶变换将输入与核都转换到频域,执行两个信号的逐点相乘,再使用傅里叶变换转回时域。

9.9随机或无监督的特征

卷积网络训练中最昂贵的部分是学习特征。

当使用梯度下降执行监督训练时,每步梯度计算需要完整地运行整个网络的前向传播和反向传播。

有三种方法可以不通过监督训练得到卷积核。

1是简单地随机初始化它们。

2是手动设计它们,例如设置每个核在一个特定的方向和尺度来检测边缘,可以使用无监督的标准来学习核。例如,将k均值聚类算法应用于小图像块,使用每个学得到的中心作为卷积核。

9.10卷积网络的神经科学基础(从微观到宏观的描述)

卷积网络是生物学启发人工智能的最为成功的案例。

卷积网络层被设计为描述V1的三个性质:

1.V1可以进行空间映射。它实际上具有二维结构来反映视网膜中的图像结构。

2.V1包含许多简单细胞。这些细胞的活动在某种程度上可以概括为在一个小的空间位置感受野内的图像的线性函数。卷积网络的检测器单元被设计为模拟简单细胞的这些性质。

3.复杂细胞对于特征的位置微小偏移具有不变形。这启发了卷积网络的池化单元。

9.11卷积网络与深度学习的历史

卷积网络是第一批能使用反向传播有效训练的深度网络之一。

花书-卷积神经网络_第52张图片

 

 

 

 

你可能感兴趣的:(深度学习)