CVPR2021| 继SE,CBAM后的一种新的注意力机制Coordinate Attention
前言:最近几年,注意力机制用来提升模型性能有比较好的表现,大家都用得很舒服。本文将介绍一种新提出的坐标注意力机制,这种机制解决了SE,CBAM上存在的一些问题,产生了更好的效果,而使用与SE,CBAM同样简单。论文地址:https://arxiv.org/pdf/2103.02907.pdf代码地址:https://github.com/AndrewQibin/CoordAttentionIntr