CNN 理解神经网络中卷积(大小,通道数,深度)



文章目录

    • 卷积
    • 池化
    • 特殊的卷积
      • 1*1卷积


卷积

卷积核又称为卷积过滤器

卷积核的表示,使用三维张量 G ∈ R K ∗ K ∗ C G \in \mathbb{R}^{K*K*C} GRKKC,下图卷积核大小是3x3x1(K=3,C=1)
C是卷积核的通道数。

源图像的大小为 H ∗ W ∗ C H*W*C HWC,经过卷积核 G ∈ R K ∗ K ∗ C G \in \mathbb{R}^{K*K*C} GRKKC 进行卷积,得到新的特征图
新的特征图长为 H ˊ = H + 2 p − k s + 1 \acute{H}=\frac{H+2p-k}{s} + 1 Hˊ=sH+2pk+1,宽w同理(H换成W即可)
p是填充,s 是步长

卷积完成后,通常会为每个特征图加上一个偏置b
CNN 理解神经网络中卷积(大小,通道数,深度)_第1张图片
CNN 理解神经网络中卷积(大小,通道数,深度)_第2张图片

多通道卷积
通道:一个卷积核的通道数 必须 与它进行卷积的输入 相同。
如 32x32x3 的图像,它的卷积核通道必须为3, 如卷积核大小可以为5x5x3
如下图就是 长方体的深度(卷积核的通道数)必须相同(左侧是源图像,中间是卷积核,右侧是卷积结果)
CNN 理解神经网络中卷积(大小,通道数,深度)_第3张图片
对于卷积运算,一个卷积核经过计算得到的一定是一个数字。

卷积核的深度:有几个卷积核深度就是几

池化

  • 池化操作就是使用一个固定大小的滑窗在输入上滑动,每次将滑窗内的元素聚合为一个值作为输出。
  • 根据聚合方式的不同,可以分为平均池化和最大值池化。
  • 池化操作的主要目的是降维,以降低计算量,并在训练初期提供 一些平移不变性
  • 对于多通道的输入,池化是逐通道进行的,因此不会改变输入的通道数
  • 滑窗的大小k(假设滑窗的长和宽相等)和滑动的步长s都会影响最终的输出。

CNN 理解神经网络中卷积(大小,通道数,深度)_第4张图片

特殊的卷积

1*1卷积

CNN 理解神经网络中卷积(大小,通道数,深度)_第5张图片
通常1×1卷积有以下功能:

  • 一是用于信息聚合,同时增加非线性,1×1卷积可以看作是对所有通道的信息进行线性加权,即信息聚合,同时,在卷积之后可以使用非线性激活,可以一定程度地增加模型的表达能力;
  • 是用于通道数的变换,可以增加或者减少输出特征图的通道数

你可能感兴趣的:(深度学习,神经网络,cnn,深度学习)