Squeeze-and-Excitation Networks(SENet:GAP+2个FC)通道注意力模型公式解析

文章目录

  • Squeeze-and-Excitation Networks
    • 代码
    • 论文
    • SENet:通道注意力机制
    • SENet基线网络图
      • SE-inception Module
      • SE-ResNet Module
    • 实验结果
    • 烧烛实验(ResNet+SENet结构分析)
    • 总结

Squeeze-and-Excitation Networks

代码

SE-Net代码

论文

SENet论文

SENet:通道注意力机制

SENet简易网络图
Squeeze-and-Excitation Networks(SENet:GAP+2个FC)通道注意力模型公式解析_第1张图片
1.Squeeze:(全局信息嵌入)每个卷积核都与一个区域相关联,但是每个卷积核没有办法和该区域之外的信息(上下文信息)相关联。
简单的说,通过 z ∈ R C z\in R^C zRC全局平均池化收缩 U U U 的空间维度,如下式:
在这里插入图片描述
2.Excitation:(全捕获引导通道依赖)
Squeeze-and-Excitation Networks(SENet:GAP+2个FC)通道注意力模型公式解析_第2张图片
简单来说就是两层全连接层,一层降维,一层升维。
该函数应该满足两个条件:一是灵活性(通道之间的非线性交互);二是它能够学习一种不相互排斥的关系,目的是确保多个通道被强调(不是强制的独热向量激活)
在这里插入图片描述
W 1 ∈ R C r ∗ C W_1\in R^ { \frac{C}{r}*C} W1RrCC(向量相乘,得到 C r \frac{C}{r} rC 维向量,相当于降维), W 2 ∈ R C ∗ C r W_2\in R^ {C*\frac{C}{r}} W2RCrC(向量相乘,得到 C C C 维向量,相当于升维), δ \delta δ是ReLU函数, δ ( . ) \delta(.) δ(.)函数代表是第一个全连接层,而 σ \sigma σ是sigmoid函数, σ ( . ) \sigma(.) σ(.)函数代表的是第二个全连接层。
最后,通过标量 s c s_c sc与特征 u c u_c uc相乘,得到输出 x c ~ \tilde{x_c} xc~
在这里插入图片描述

SENet基线网络图

SE-inception Module

SE-inception Module是在inception的基础上加上一个SE块。
Squeeze-and-Excitation Networks(SENet:GAP+2个FC)通道注意力模型公式解析_第3张图片

SE-ResNet Module

SE-ResNet Module在残差块中加入SE模块,最后相加输出。
Squeeze-and-Excitation Networks(SENet:GAP+2个FC)通道注意力模型公式解析_第4张图片

实验结果

(左)ResNet-50 [13]。(中)SE-ResNet-50。(右)带有32×4d模板的SE-ResNeXt-50。
Squeeze-and-Excitation Networks(SENet:GAP+2个FC)通道注意力模型公式解析_第5张图片
original原论文中的结果,re-implementation作者复现结果,SENet模块结果。可以看出来,加入SE模块后准确率得到了明显的提升,而且计算量也没有因为加入SE模块得到较大的改变。
Squeeze-and-Excitation Networks(SENet:GAP+2个FC)通道注意力模型公式解析_第6张图片
Ratio r r r在一定范围内,准确率是比较稳定的,较小的 r r r会显著增加模型的参数大小。当 r = 16 r=16 r=16 在准确率和复杂性发面取得良好的平衡。
Squeeze-and-Excitation Networks(SENet:GAP+2个FC)通道注意力模型公式解析_第7张图片

烧烛实验(ResNet+SENet结构分析)

Squeeze-and-Excitation Networks(SENet:GAP+2个FC)通道注意力模型公式解析_第8张图片
结果是下表
Squeeze-and-Excitation Networks(SENet:GAP+2个FC)通道注意力模型公式解析_第9张图片

总结

文中提出了SE模块,是一种动态的重新校准通道式特征来提高网络的表征能力的方法,为后面注意力机制的进一步研究提供了新的方向,比如CBAM中通道注意力和空间注意力相结合。

你可能感兴趣的:(attention机制)