SeaFormer:轻量高效的注意力模块

文章目录

  • 摘要
  • 1、简介
  • 3、方法
    • 3.1、总体架构
    • 3.2、压缩增强轴向注意力
  • 4、实验
    • 4.1、实验设置
      • 4.4.1、数据集
      • 4.1.2、实现细节
    • 4.2、与SOAT比较
    • 4.3、消融研究
    • 4.4、图像分类
    • 4.5、时延统计
  • 5、结论
  • 致谢

摘要

SeaFormer:轻量高效的注意力模块_第1张图片

论文:https://openreview.net/pdf?id=-qg8MQNrxZw
代码:https://github.com/fudan-zvg/SeaFormer
自从引入视觉TransFormer以来,许多计算机视觉任务(例如,语义分割)的

你可能感兴趣的:(2023必读AI论文翻译,深度学习,人工智能,计算机视觉)