YoloV8改进策略:基于双层路由注意力的视觉Transformer提升YoloV8的检测能力

文章目录

  • 摘要
  • 论文翻译
    • 摘要
    • 1、简介
    • 2、相关工作
    • 3、我们的方法:BiFormer
      • 3.1、预备知识:注意力
      • 3.2、双层路由注意(BRA)
      • 3.3、BRA的复杂性分析
    • 4、实验
      • 4.1、ImageNet-1K图像分类
      • 4.2. 目标检测与实例分割
      • 4.3. 基于ADE20K的语义分割
      • 4.4、消融研究
      • 4.5、注意图可视化
    • 5、局限性和未来工作
    • 6、结论
  • 源码
  • 改进一
    • 改进方法:在Bottleneck增加BiLevelRoutingAttention

你可能感兴趣的:(YOLO,transformer,深度学习)