卷积神经网络——探索卷积

卷积神经网络——探索卷积

    • 卷积
      • 填充
      • 步幅
      • 多输入通道

卷积

概念:卷积是数学分析中的一种积分变化。(百度百科)

定义:卷积是两个变量在某范围内相乘后求和的结果。(百度百科)

看到上面的概念和定义,我相信大家都不不知道在是啥意思,说实话,让我看,我也看不出来。

卷积,只需要直到它是一种运算就好了,接下来,我们就看一下它是怎么进行计算的。

进行卷积操作,需要有两个部分:

  • 需要进行卷积的矩阵。(m×n)

  • 卷积核(也是矩阵)。(x×y)

卷积神经网络——探索卷积_第1张图片

从刚刚看到的定义,卷积就是两个变量在某个范围内相乘求和。从上图中,我们可知

两个变量:矩阵、卷积核

某个范围:卷积核核矩阵重叠的范围(上图用颜色进行表示)

所以它的计算结果就是:

卷积神经网络——探索卷积_第2张图片

聪明的小伙伴发现,计算结果不对啊计算结果怎么是一个矩阵?

原因1:因为矩阵和卷积核进行卷积操作还需要加上一个偏置项(一般是0或1)

原因2:你要让你的卷积核滑动起来,从左到右,从上到下,把你的矩阵全部计算一下,获得一个新的矩阵。

要往下看(下面的公式有限制条件哦!)

新矩阵的高:H = m - x + 1

新矩阵的宽:W = n - y + 1

这样做有什么好处呢?

  • 保留了输入矩阵之间的空间位置关系,能够提取到位置信息中包含的特征模式
  • 卷积核可以在整个矩阵上滑动,不同区域共用一个卷积核,与矩阵尺寸无关。

这用在矩阵上干啥呢?

当然不是用在普通的矩阵上面啦,对一堆数字矩阵进行卷积,获得的还是一个数字矩阵。

那图像呢?

图像的灰度图是由一堆灰度值像素点构成的,彩色图像多了几个通道,哎嘿,矩阵不就出来了?

为什么要对图像进行卷积?

当然是为了更好的提取特征啦

全连接层,把图像转化成一维向量,破坏了图像在空间位置上的完整性,空间位置上的特征模式一定程度上遭受了损坏。

填充

假设你对一个图像进行卷积操作,不想让它的大小发生变化,这时候我们就可以考虑一下对原图像进行填充操作了。

卷积神经网络——探索卷积_第3张图片

一般来说,填充采取等量填充,左边填了多少,右边也填多少。但是用上面的卷积核(2×2)计算,发现,不对啊,这次它的大小变化了,还变大了。

这里说明一下:卷积核通常采用奇数大小的卷积核(1×1)、(3×3)、(5×5)…

啥时候卷积后的图像尺寸与原图保持不变呢?

卷积核的长:H = (m - 1)/2

卷积核的宽:H = (n - 1)/2

步幅

我们把卷积核在矩阵中一次移动的距离称之为步幅。

首先看一下之前的图片

卷积神经网络——探索卷积_第4张图片

为啥卷积的结果一定是3×3呢?如下图,演示卷积核的移动,注意颜色(向左移动,向下同理)

卷积神经网络——探索卷积_第5张图片

原因:从上面的描述可知,卷积核可以移动,而导致上面的输出结果是因为卷积核每一个只移动1步(1个像素点)。

看矩阵可知,往左边移动三次就到底了,往下面移动三次也到底了,所以输出的结果就是一个3×3的矩阵

所以说输出图像的大小为:(上面也有一个公式,那个是针对步长为1,且没有填充的哦!)

高:h = ((m + 2×ph - x)/ sh ) + 1

宽:w = ((n + 2×pw - y)/ sw ) + 1

sw、sh:表示的对宽、高方向的步长

ph、pw:表示的对宽、高方向的填充

m、n、x、y见上

多输入通道

上面展示的其实是单通道的,例如图像中的灰度图,但是现在很多图像都是彩色图像,一般的彩色图像都有RGB三个通道(三基色),说白了,就是彩色图片可以变成三个矩阵,每一个矩阵对应着一个通道。那对于这样的图片怎么进行卷积呢?如下

卷积神经网络——探索卷积_第6张图片
其实发现好像和前面的卷积没啥区别,不就是每个通道都和自己对应的卷积核进行卷积一下,然后相加就ok了。

你可能感兴趣的:(深度学习,深度学习)