1x1卷积和池化操作

1x1卷积和池化操作

1. 本质

  • 1x1卷积和池化操作的本质是压缩feature mapping(输入层或者叫表示层)
  • 1x1卷积通过改变feature mapping(输入层或者叫表示层)的通道数量,具体操作是减少通道数量实现压缩
  • 池化操作通过改变feature mapping(输入层或者叫表示层)的尺寸(宽和高)

2. 1x1卷积操作

假设这是一个28×28×192的输入层,如果通道数量很大,该如何把它压缩为28×28×32维度的层呢?你可以用32个大小为1×1的过滤器,严格来讲每个过滤器大小都是1×1×192维,因为过滤器中通道数量必须与输入层中通道的数量保持一致。32个过滤器(卷积核)分别对应输出层32个通道,一个过滤器得到一个通道的结果。

1x1卷积和池化操作_第1张图片

3.池化操作

1x1卷积和池化操作_第2张图片

  • 这里的feature mapping(表示层)大小池化后由4x4变成了2x2
  • 池化直接在feature mapping(输入层或者叫表示层)上进行操作
  • 池化大小为2x2,并且stride=2,padding=0,一般池化操作padding=0
  • 和卷积的区别,卷积需要卷积核对输入层进行对应相乘再相加得到输出层的一个点,而池化直接对输入层2x2大小的范围操作
  • 和卷积的相同点,计算公式是一样的 n o u t = n i n + 2 ⋅ p a d d i n g − f i l t e r s t r i d e + 1 n_{out} = \frac {n_{in} + 2 \cdot padding - filter } {stride} +1 nout=stridenin+2paddingfilter+1
  • 池化是逐通道进行的,所以池化前后通道数量没变化。而一次卷积操作对所有通道都运算,这就是为什么卷积核的通道数核和输入层通道数相同。

4.1x1卷积减少计算量和参数量

1x1卷积和池化操作_第3张图片

1x1卷积和池化操作_第4张图片
参考:

http://ai-start.com/dl2017/html/lesson4-week2.html

你可能感兴趣的:(深度学习,卷积神经网络)