卷积层、池化层和全连接层

卷积层(Convolution)

什么是卷积,如下图所示,卷积操作是用卷积核,按照一定的步长,在一张图片上规律性的移动。卷积核的每个单元有权重,在卷积核移动的过程中将图片上的像素和卷积核的对应权重相乘,最后将所有乘积相加得到一个输出。
卷积层、池化层和全连接层_第1张图片作用和意义
①局部感知:
在传统神经网络中每个神经元都要与图片上每个像素相连接,这样的话就会造成权重的数量巨大造成网络难以训练。而在含有卷积层的的神经网络中每个神经元的权重个数都是卷积核的大小,这样就相当于没有神经元只与对应图片部分的像素相连接。这样就极大的减少了权重的数量。同时我们可以设置卷积操作的步长,假设将上图卷积操作的步长设置为3时每次卷积都不会有重叠区域(在超出边界的部分补自定义的值)。

卷积层、池化层和全连接层_第2张图片②参数共享
卷积核的权重是经过学习得到的,并且在卷积过程中卷积核的权重是不会改变的,这就是参数共享的思想。这说明我们通过一个卷积核的操作提取了原图的不同位置的同样特征。简单来说就是在一幅图片中的不同位置的相同目标,它们的特征是基本相同的。
③多卷积核
如权值共享的部分所说我们用一个卷积核操作只能得到一部分特征可能获取不到全部特征,这么一来我们就引入了多核卷积。用每个卷积核来学习不同的特征(每个卷积核学习到不同的权重)来提取原图特征,在多核卷积的过程中每个卷积核的大小应该是相同的。

池化层(Pooling)

池化层的作用是取对应位置的最大值、平均值等(最大池化、平均池化),并且不经过反向传播的修改。
设置池化层的目的是降低特征维度,可以忽略目标的倾斜、旋转之类的相对位置的变化。以此提高精度,同时降低了特征图的维度并且已定成度上可以避免过拟合。

卷积层、池化层和全连接层_第3张图片

全连接层

(fully connected layer)
在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用。

你可能感兴趣的:(卷积神经网络专题)