《深入浅出图神经网络》阅读笔记-第3章 卷积神经网络(1)

第一部分:卷积与池化

1、信号处理中的卷积

2、图像中的卷积

不同的卷积核所提取的特征不同。

根据用图直观上理解梯度算子(一阶)与拉普拉斯算子(二阶)的区别,线检测与边缘检测的区别_菊头蝙蝠的博客-CSDN博客_一阶梯度算子

所述, 二阶算子可得到图像的细节,一阶算子可得到图像的边缘。

3、卷积的意义:可以将时域中的复杂的卷积运算转换为频域中的简单相乘运算,即:

(f*g)(t)\Leftrightarrow F(w)G(w)

第二部分:深度学习中的卷积操作 

如果卷积的位置无法获取输入的每个位置,则会有两方面的问题:

1、进行多次卷积后,特征图的尺寸会越来越小;

2、越是边缘的位置对输出的影响越小,导致边缘信息丢失。

为了解决上述问题,可以对边缘使用0填充,这样边缘的值也能得到计算。一般来说当padding=p时,输入的实际维度就变为了(W+2P, H+2P)

为了使得卷积后得到的特征图和输入的维度相同,通常在步长为1的情况下,p=k/2向下取整。k为卷积核的维度。

对于多通道卷积来说,输入层和卷积核具有相同的深度,这样卷积核只需要在高和宽两个方向上移动,被称为2D卷积。

《深入浅出图神经网络》阅读笔记-第3章 卷积神经网络(1)_第1张图片

 摘自:多通道图片的卷积_小小川_的博客-CSDN博客_多通道图片

多通道卷积后,通常会给每个特征图加一个偏置。

第三部分:池化

池化的目的:降维以减少计算量,并在训练初期提供一些平移不变性。池化操作就是使用一个固定大小的滑窗在输入上滑动,每次将滑窗内的元素聚合。根据聚合的方式不同分为两种常用的池化:平均池化和最大值池化。

你可能感兴趣的:(深入浅出图神经网络,图神经网络,神经网络,cnn,深度学习,卷积神经网络)