模型注意力机制的方法,senet,gcnet SRMnet,SGEnet,增强注意力机制AA

优化分类模型的结构注意力机制

senet,gcnet SRMnet,SGEnet,增强注意力机制AA,每个有代码实现
最大化注意力机制(EMA)

1、SEnet, GCnet

2、SGEnet, Spatial Group-wise
Enhance: Improving SemanticFeature Learning in ,Convolutional
Networks, https://github.com/implus/PytorchInsight

3、SRM : A Style-based Recalibration
Module for Convolutional Neural Networks

https://github.com/hyunjaelee410/style-based-recalibration-module

https://github.com/EvgenyKashin/SRMnet

https://github.com/XiaLiPKU/EMANet,emanethttps://zhuanlan.zhihu.com/p/78018142

SRM 和 SGE 是对se块改进的,所以插入位置也是一样的,容易替换修改

4、自注意力增强卷积
https://github.com/leaderj1001/Attention-Augmented-Conv2d
注意力增强结构,参数量比se模型少一点,精度高一点同时适用于检测,分类,都有提升
https://zhuanlan.zhihu.com/p/63910019
模型注意力机制的方法,senet,gcnet SRMnet,SGEnet,增强注意力机制AA_第1张图片

模型注意力机制的方法,senet,gcnet SRMnet,SGEnet,增强注意力机制AA_第2张图片
5、自注意力,self.attention
研究的不是很多,在imagewoof 中 加有2%的提升
https://github.com/sdoria/SimpleSelfAttention 实现代码
Self-Attention GAN 中的 self attention 机制

你可能感兴趣的:(模型注意力机制的方法,senet,gcnet SRMnet,SGEnet,增强注意力机制AA)