卷积与池化--初步理解

“卷积”来源于信号处理领域。在图像处理中的卷积:先将卷积核先转180度,然后在输入中的对应位置取出一个大小为卷积核大小的区域,然后与旋转后的卷积求内积,得到对应位置的输出。

卷积与池化--初步理解_第1张图片

这里用到了两个例子,一个是一阶算子Sobel以及二阶算子Laplacian。不同的卷积可以提取到不一样的特征。

深度学习中的卷积

单通道卷积

在深度学习中,卷积不需要旋转,就不放入公式了。直接看例子:

卷积与池化--初步理解_第2张图片

 假设输入为一个5x5的矩阵,卷积核是3x3的,进行卷积计算,得到输出结果。其中蓝色的计算:

卷积与池化--初步理解_第3张图片

图像处理中使用的卷积核是人工确定的,深度学习中的卷积核参数是可训练的。

每个卷积核提取到输入的某种特征,为了增加特征的丰富程度,我们常常会使用多个卷积核,用一个三维的张量表示:,那么输出的结果为:。我们称卷积得到的输出为特征图(feature map)。

我们可以看到卷积过后的结果,维度变小了,这是输入的边界导致的,因为卷积的起始位置无法取到输入的每一个位置,由此,会导致多次卷积过后,输出的尺寸越来越小;而且处于边界的像素对于输出的影响越小,因为中间会参与多次卷积计算,而边缘部分不会。这就导致边缘的信息丢失

为了解决上述问题,可以对边缘进行0值填充(padding),这样可以使输出的尺寸与输入的尺寸保持一致,其中padding=1,表示填充一圈0。输入的尺寸就变为(W+2,H+2),如:

卷积与池化--初步理解_第4张图片

输出的特征图尺寸不仅与padding有关,还与卷积的步长有关,上面是标准的卷积(步长为1),如果步长(stride) =2:

卷积与池化--初步理解_第5张图片

 多通道卷积

将上面的单通道卷积拓展到多通道,多通道卷积的过程可以看做是一个3D的卷积核滑过输入层。(特别注意的是,输入层和卷积核有相同的深度)

卷积与池化--初步理解_第6张图片

这里的输出还是一个值,因为这里用的是张量的点积运算。
具体看一位大佬的总结或者其他大佬的:感谢大佬!本人也在学习中。。。
张量基础学习 (三 张量代数运算———上)_西瓜皮装猕猴桃的博客-CSDN博客_张量的并积
张量基础学习(四 张量代数运算——下)_西瓜皮装猕猴桃的博客-CSDN博客_张量的缩并

池化

池化操作的主要目的是降维,以降低计算量。并在训练初期提供一些平移不变性。常用的池化操作有:平均池化以及最大值池化。

池化操作就是使用一个固定大小的滑块在输入上滑动,每次都将滑窗内的元素聚合为一个元素输出。

卷积与池化--初步理解_第7张图片

通常步长与滑窗的大小相等。对于多通道的输入,池化是逐通道进行的,因此不会改变输入的通道数。

池化技术总结_中科哥哥的博客-CSDN博客_池化技术

你可能感兴趣的:(图神经网络,深度学习,cnn,计算机视觉)