BiFormer_基于双层路由注意力的视觉Transformer

文章目录

  • 摘要
  • 1、简介
  • 2、相关工作
  • 3、我们的方法:BiFormer
    • 3.1、预备知识:注意力
    • 3.2、双层路由注意(BRA)
    • 3.3、BRA的复杂性分析
  • 4、实验
    • 4.1、ImageNet-1K图像分类
    • 4.2. 目标检测与实例分割
    • 4.3. 基于ADE20K的语义分割
    • 4.4、消融研究
    • 4.5、注意图可视化
  • 5、局限性和未来工作
  • 6、结论

摘要

论文链接:https://arxiv.org/abs/2303.08810
代码链接:https://github.com/rayleizhu/BiFormer

作为视觉transformer的核心构建模块,注意力是捕捉长程依赖关系的强大工具。然而,这种能力是有代价的:它会带来巨大的计算负担和内存占用,因为要计算所有空间

你可能感兴趣的:(2023必读AI论文翻译,transformer,深度学习,计算机视觉)