【趣味随笔】YOLO的“进化史”极简版(YOLO v1-->YOLOP)

:如果你也对机器人、人工智能感兴趣,看来我们志同道合✨
:不妨浏览一下我的博客主页【https://blog.csdn.net/weixin_51244852】
:文章若有幸对你有帮助,可点赞 收藏 ⭐不迷路
:内容若有错误,敬请留言 指正!原创文,转载请注明出处

文章目录

  • YOLO v1
  • YOLO v2
  • YOLO v3
  • YOLO v4
  • YOLO v5
  • YOLO v6
  • YOLO v7
  • YOLO v8
  • YOLOX
  • YOLOP


YOLO v1

You Only Look Once: Unified, Real-Time Object Detection
作者:Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi
单位:华盛顿大学;Allen Institute for AI;FAIR
论文:https://arxiv.org/abs/1506.02640
主页:https://pjreddie.com/darknet/yolo/
时间:2015年6月8日
【趣味随笔】YOLO的“进化史”极简版(YOLO v1-->YOLOP)_第1张图片

YOLO v2

YOLO9000: Better, Faster, Stronger
作者:Joseph Redmon, Ali Farhadi
单位:华盛顿大学;Allen Institute for AI
论文:https://arxiv.org/abs/1612.08242
主页:https://pjreddie.com/darknet/yolo/
时间:2016年12月25日
在 YOLO 基础上,保持原有速度的同时提升精度得到YOLOv2,让预测变得更准确(Better),更快速(Faster)。

YOLO v3

YOLOv3: An Incremental Improvement
作者:Joseph Redmon, Ali Farhadi
单位:华盛顿大学
论文:https://arxiv.org/abs/1804.02767
主页:https://pjreddie.com/darknet/yolo/
Star | 18.3K
时间:2018年4月8日
在320×320 YOLOv3运行22.2ms,28.2 mAP,像SSD一样准确,但速度快三倍。在Titan X上,它在51 ms内实现了57.9的AP50,与RetinaNet在198 ms内的57.5 AP50相当,性能相似但速度快3.8倍。

YOLO v4

YOLOv4: Optimal Speed and Accuracy of Object Detection
作者:Alexey Bochkovskiy;Chien-Yao Wang;Hong-Yuan Mark Liao
单位:(中国台湾)中央研究院
论文:https://arxiv.org/pdf/2004.10934v1.pdf
代码:https://github.com/AlexeyAB/darknet
Star | 11.9K
时间:2020年4月24日

YOLO v5

2020年6月25日,Ultralytics发布了YOLOV5 的第一个正式版本,号称其性能与YOLO V4不相伯仲,同样也是现今最先进的目标检测技术,并在推理速度上是目前最强。
论文:无
代码:https://github.com/ultralytics/yolov5
Star | 3.5K

YOLO v6

YOLOv6是美团提出的一种实时目标检测方法,其速度比YOLOv5快20%,这主要归功于其采用的relu激活函数。在COCO数据集上,YOLOv6-N达到了37.5%的AP,并且通过NVIDIA Tesla T4 GPU测试的吞吐量为1187 FPS。而YOLOv6-S在保持较高速度的同时,打击了45.0%的AP,超过了同等规模的其他主流检测器(包括YOLOv5-S、YOLOv8-S、YOLOX-S和PPYOLOE-S)。值得注意的是,YOLOv6-M/L在相似的推理速度下也比其他检测器实现了更好的精度性能(分别为50.0%/52.8%)

YOLO v7

YOLO v7,一个出场即喊了一句“在座的各位都是腊鸡”的detector,其在COCO数据集上的表现如下图,不论是mAP还是latency,都比同级别的detector好. 正如文章标题所描述的,YOLO v7实现高精度检测的方式更多的是依靠训练策略的优化. BTW,YOLO v7的整体架构和YOLO v5仍然非常相似,皆为backbone+FPN+PAN+三个不同尺度的head,但其中内嵌的模块有了较大改变.
论文:https://arxiv.org/pdf/2207.02696.pdf。
《YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors》
代码:https://github.com/WongKinYiu/yolov7

【趣味随笔】YOLO的“进化史”极简版(YOLO v1-->YOLOP)_第2张图片

YOLO v8

YOLOv8 是 ultralytics 公司在 2023 年 1月 10 号开源的 YOLOv5 的下一个重大更新版本,目前支持图像分类、物体检测和实例分割任务,在还没有开源时就收到了用户的广泛关注。

YOLOv8 是最新最先进的 YOLO 模型,可用于对象检测、图像分类和实例分割任务。YOLOv8 由 Ultralytics 开发,该公司还创建了具有影响力和行业定义的 YOLOv5 模型。与 YOLOv5 相比,YOLOv8 包含大量架构和开发人员体验更改和改进。

代码:https://github.com/ultralytics/ultralytics

YOLOX

YOLOX: Exceeding YOLO Series in 2021
YOLOX采用了anchor-free的设计思路,使得模型对于目标物体的形状、大小和比例等参数具有更好的泛化能力。同时,YOLOX还引入了decoupled detection head,这种设计可以更好地优化目标检测任务中的目标定位和分类两个子任务。

值得一提的是,YOLOX所采用的主干网络CSPDarknet创新性地加入了Fcous结构,这种结构可以有效地缩小图片宽高信息,降低参数量,从而提高网络的计算速度。此外,YOLOX还提出了SimOTA这一新的训练策略,该策略通过模拟标签的分配来优化目标检测的性能。

作者单位:旷视科技
代码:https://github.com/Megvii-BaseDetection/YOLOX
论文:https://arxiv.org/abs/2107.08430

【趣味随笔】YOLO的“进化史”极简版(YOLO v1-->YOLOP)_第3张图片

YOLOP

华中大提出全景驾驶感知网络YOLOP
可以同时进行 traffic object detection(交通目标检测)、 drivable area segmentation(可驾驶区域分割)和 lane detection(车道检测)
作者 | Dong Wu, Manwen Liao, Weitian Zhang, Xinggang Wang
单位 | 华中科技大学
论文 | https://arxiv.org/abs/2108.11250
代码 | github.com/hustvl/YOLOP

你可能感兴趣的:(#,Deep,Learning,趣味随笔,YOLO)