YoloV5改进策略:独家原创,LSKA(大可分离核注意力)改进YoloV5,比Transformer更有效,包括论文翻译和实验结果

文章目录

  • 摘要
  • 论文:《LSKA(大可分离核注意力):重新思考CNN大核注意力设计》
  • 1、简介
  • 2、相关工作
  • 3、方法
  • 4、实验
  • 5、消融研究
  • 6、与最先进方法的比较
  • 7、ViTs和CNNs的鲁棒性评估基准比较
  • 8、结论
  • YoloV5官方代码测试结果
  • 改进一:使用LSKA注意力机制重构C3模块
    • 改进方法
    • 测试结果
  • 改进二:使用LSKANet的Block替换C3中的Bottleneck,重构C3
    • 改进方法
    • 测试结果
  • 改进三:使用van主干替换Yolov5的BackBone,打造轻量化的主干网络

你可能感兴趣的:(YoloV5,V7改进与实战——高阶篇,YOLO,transformer,深度学习)