深度学习: global pooling (全局池化)

今天看SPPNet论文时,看到“global pooling”一词,不是很明白是啥概念。上网查了一下定义,在StackOverflow
上找到了答案:
深度学习: global pooling (全局池化)_第1张图片

具体回答如下:
深度学习: global pooling (全局池化)_第2张图片

说白了,“global pooling”就是pooling的 滑窗size 和整张feature map的size一样大。这样,每个 W×H×C W × H × C 的feature map输入就会被转化为 1×1×C 1 × 1 × C 输出。因此,其实也等同于每个位置权重都为 1/(W×H) 1 / ( W × H ) 的FC层操作。

等同于输入一个tensor,输出一根vector。

“global pooling”在滑窗内的具体pooling方法可以是任意的,所以就会被细分为“global avg pooling”、“global max pooling”等。

由于传统的pooling太过粗暴,操作复杂,目前业界已经逐渐放弃了对pooling的使用。替代方案 如下:

  • 采用 Global Pooling 以简化计算;

  • 增大conv的 stride 以免去附加的pooling操作。


[1] What does global pooling do?
[2] Global average Pooling

你可能感兴趣的:(深度学习,深度学习)