改进YOLO系列:YOLOv5s、YOLOv5m结合GHostv2轻量化设计,保持精度,计算量缩小40%

改进YOLO系列:YOLOv5s、YOLOv5m结合GHostv2轻量化设计,保持精度,计算量缩小40%

  • 一、理论介绍
    • 1、GhostNetV2:长距离注意力机制增强廉价操作
  • 2、用于移动端架构的解耦全连接注意力机制 DFC Attention
    • 3、借助 DFC 注意力机制增强 Ghost 模块
  • 二、改进方法
    • 另外需要修改的地方
  • 三、运行测试
  • 建议

一、理论介绍

1、GhostNetV2:长距离注意力机制增强廉价操作

1.1.2 重新思考 Attention 对模型架构的影响
Self-attention 的优点是长距离建模的能力,但是计算复杂度与输入的分辨率大小呈二次方增长的关系,这对于高分辨率的图片而言是非常不友好的。而一些检测和分割任务都需要高分辨率的输入,使得 Self-attention 无法扩展。

针对这个问题,一种常见的做法是把图片分成一系列的不重叠的 windows,在每个 window 内部,代表性的工作有 Swin[2] 。或者把图片分成一系列的不重叠的 patches,在 pa

你可能感兴趣的:(YOLOv8,YOLO5系列改进专栏,YOLO,windows,深度学习)