【论文笔记02】CBAM:Convolutional Block Attention Module(ECCV 2018)

CBAM在两个维度应用了attention(spatial and channel)。

注意:CBAM只是同时使用了Chanel attention和spatial attetion,但他们是独立训练的,spatial和channel直接在结构上并没有什么联系,只是将他两串联使用。

CBAM模型概览:

【论文笔记02】CBAM:Convolutional Block Attention Module(ECCV 2018)_第1张图片
【论文笔记02】CBAM:Convolutional Block Attention Module(ECCV 2018)_第2张图片
Mc(F)是channel attention(C×1×1),F是input(C×H×W),Fˋ是channel attention后的输出;
Ms(F)是spatial attention(1×H×W),Fˋˋ是最终的输出。
【论文笔记02】CBAM:Convolutional Block Attention Module(ECCV 2018)_第3张图片

Channel attention module:

channel attention module
对比于前面的SENet,只使用了average pool,在本文的channel attention module,采用了Maxpool(偏向于整体特性)和Avgpool(过滤掉比较多的无用信息,突出一些类似于纹理轮廓等特征)并行的一个结构,生成C×1×1的feature map,送入shared MLP,输出C/r×1×1(降维,减少参数开销,同时capture channel-wise dependencies),W0和W1都是共享的,最后element-wise summation,经过sigmoid,得到channel attention Mc(F)。

spatial attention module:

【论文笔记02】CBAM:Convolutional Block Attention Module(ECCV 2018)_第4张图片
对channel进行Avgpool和Maxpool,产生两个1×H×W的feature map,concatenated,然后进行一个7×7的convolution,产生spatial attention Ms(F)。

你可能感兴趣的:(论文,机器学习,神经网络,人工智能,深度学习)