1. 30种常见注意力机制论文、解读、使用方法、实现代码整理(Attention)

各种注意力机制实现代码下载:

下载地址

目录

  • 1. External Attention

  • 2. Self Attention

  • 3. Squeeze-and-Excitation(SE) Attention

  • 4. Selective Kernel(SK) Attention

  • 5. CBAM Attention

  • 6. BAM Attention

  • 7. ECA Attention

  • 8. DANet Attention

  • 9. Pyramid Split Attention(PSA)

  • 10. Efficient Multi-Head Self-Attention(EMSA)

你可能感兴趣的:(个人随笔(论文解读,学习资料),计算机视觉,深度学习)