#每一天论文#240/365 CBAM:卷积注意力模块

CBAM: Convolutional Block Attention Module

原文

代码

引用

https://blog.csdn.net/u013289254/article/details/99607860

思考

在Resnet50中插入attention机制提高了网络的特征提取能力
#每一天论文#240/365 CBAM:卷积注意力模块_第1张图片
空间注意力机制:在下图中,MaxPool的操作就是在通道上提取最大值,提取的次数是高乘以宽;AvgPool的操作就是在通道上提取平均值,提取的次数也是是高乘以宽;接着将前面所提取到的特征图(通道数都为1)合并得到一个2通道的特征图,后面的操作比较简单,就不介绍了。
#每一天论文#240/365 CBAM:卷积注意力模块_第2张图片

你可能感兴趣的:(每天一篇论文365)