卷积神经网络的基本概念和重要思想

一、卷积神经网络与传统神经网络的学习原理对比

传统神经网络:有监督的机器学习,输入为特征。其训练过程为:

输入(原始图像)→人工进行特征提取→神经网络进行分类→输出

卷积神经网络:无监督特征学习,输入为最原始的图像。其训练过程为:

输入(原始图像)→特征提取和分类都由神经网络进行→输出

传统神经网络依靠人工设计特征,局限于研究人员的经验和特征表达能力,无法应对各种不变性。传统神经网路与SVM类似,角色只是一个分类器。

二、卷积神经网络的基本概念

1.多通道卷积:输出特征图的每一个通道,由输入图的所有通道和相同数量的卷积核对应卷积计算并求和。

输入特征图:通道数x高度x宽度→C_{i}\times H_{i}\times W_{i};输出特征图:C_{o}\times H_{o}\times W_{o}

卷积神经网络的基本概念和重要思想_第1张图片

 卷积核数量:C_{i}\times C_{o}

2.填充:给卷积前的图像边界添加额外的行/列

作用:①控制卷积后图像分辨率,方便计算特征图尺寸的变化;②弥补边界信息“丢失”。

3.步长:卷积核在图像上移动的步子

影响:①步长太小,重复计算多,计算量大,训练效率降低;②步长太大,会造成信息遗漏,无法有效提取数据背后的特征。

4.卷积结构单元——输入输出大小计算

记图像的输入尺寸为F_{in},填充为p,卷积核大小为k,步长为s,输出尺寸为F_{o},计算公式如下:

F_{o}=(\frac{F_{in}-k+2p}{s}+1)

5.池化:对图像进行下采样,降低图像分辨率(最大值池化,均值池化)

作用:①使特征图变小,简化网络计算复杂度;②压缩特征进行逐级抽象。

6.感受野:某一层一个元素对用输入层的一个映射区域大小。感受野越大,得到的全局信息越多。

卷积神经网络的基本概念和重要思想_第2张图片

 三、卷积神经网路的重要思想

1.局部连接:传统神经网络采用全连接的方式,而卷积神经网络采用局部连接的方式,为什么进行局部连接?

①更好地利用图像中的结构信息,越相近的像素相互影响越大;

②局部与整体的自相似性,局部的可辨识性(例如一根长满叶子的树枝,要识别出是什么树,我们只需要识别到一片树叶,而不需要把图中的树叶全部识别一边就能确定是什么树)

再举个例子,我们的输入是1000x1000的图像,神经网络只有一个隐藏层:

全连接情况下:隐藏层需要1000x1000个神经元,这样,总参数量为1000x1000x1000x1000;

局部连接情况下:假如隐藏层的每个神经元之和输入图像中10x10的局部区域相连接,且卷积核移动步长为10,则隐藏层只需要10x10个神经元,这样,总参数量为1000x1000x10x10,降低了4个数量级。

你可能感兴趣的:(神经网络,cnn,深度学习)