Paper Reading -- CBAM: Convolutional Block Attention Module

论文:CBAM: Convolutional Block Attention Module

1. Motivation

受SENet启发,作者在channel attention后面再加上一个spatial attention,既实现了通道注意力机制也实现了空间注意力机制。

2. Structure

  • CBAM
    Paper Reading -- CBAM: Convolutional Block Attention Module_第1张图片
    可以看到,相比SE Block,串行的添加了一个spatial attention,而csSENet是将channel attention和spatial attention做了一个并行。
  • 具体结构
  • Paper Reading -- CBAM: Convolutional Block Attention Module_第2张图片
    作者还做了一个改进,在AvgPool的基础上增加了MaxPool,实验结果表明,两种类型的池化的效果比单一的平均池化效果好。
    Paper Reading -- CBAM: Convolutional Block Attention Module_第3张图片
    CBAM和SE block一样,可以很方便的添加到ResBlock中
    Paper Reading -- CBAM: Convolutional Block Attention Module_第4张图片

你可能感兴趣的:(Paper,Reading)