YOLO是一种基于图像全局信息进行预测并且它是一种端到端的目标检测系统,最初的YOLO模型由Joseph Redmon和Ali Farhadi于2015年提出,并随后进行了多次改进和迭代,产生了一系列不同版本的YOLO模型,如YOLOv2、YOLOv3、YOLOv4,YOLOv5等。这些更新和迭代旨在提高模型的性能、精度和速度,使其在实际应用中更具竞争力。
YOLO的核心思想是将图像划分为网格,并在每个网格单元中预测物体的边界框和类别。这种设计使得YOLO非常适合实时目标检测应用,因为它可以在较短的时间内完成目标检测任务。
Yolov8,作为一种SOTA(State-of-the-Art)模型,构建在Yolo系列的基础之上,融合了先前版本的经验,同时引入了创新性的特性和改进,以进一步提高其性能和灵活性,使其成为目标检测、图像分割、姿态估计等多项任务的首选。
Yolov8的创新点包括以下方面:
新的骨干网络:Yolov8采用了一种新的骨干网络架构,有望提高特征提取和处理能力,从而有助于更准确的目标检测和分割。
新的Anchor-Free检测头:引入了Anchor-Free检测头,不再依赖锚框,提供更大的灵活性,可以更好地适应各种目标形状和大小。
新的损失函数:Yolov8采用了一种全新的损失函数,有望进一步提升模型的收敛速度和性能表现。
Yolov8还具备多平台支持的能力,可以在不同硬件平台上运行,包括CPU和GPU。此外,Yolov8的开源库不仅限于Yolo系列模型,还具有卓越的可扩展性,支持其他类型的模型以及各种任务,如分类、分割、姿态估计等。
Yolov8在各项指标上实现了显著的提升,超越了现有的目标检测和实例分割模型。它汲取了Yolov5、Yolov6、YoloX等模型的设计优点,通过全面改进Yolov5的结构,同时保留了Yolov5工程化简洁易用的特点。
从下面的表格可以看到,Yolov5与Yolov8在COCO Val 2017数据集的测试结果,比较了Yolov8和Yolov5在mAP、参数数量和FLOPs方面的性能。结果显示,Yolov8相较于Yolov5在精度上有显著提升,然而,模型的参数数量和FLOPs也相应增加,这导致模型的推理速度相对较慢。
这个比较表格是有关性能和复杂性的重要信息,对于选择合适的模型在不同应用中非常有帮助。 Yolov8的精度提高表明其在更精细的目标检测任务中可能更具竞争力,但同时需要更多的计算资源。在使用的过程中,可以具体对比应用需求,权衡精度和速度,选择最适合的模型。
FlOPs(floating point operations):浮点运算次数,用于衡量算法/模型的复杂度。FLOPS(全部大写)(floating point operations per second):每秒运算的浮点数,可以理解为计算速度,用于衡量硬件性能。这里是衡量模型的复杂度,因此选择FlOPs。
Yolov5与yolov8在COCO Val 2017数据集的测试结果:
Yolov8主要汲取了Yolov5、Yolov6、YoloX等模型的设计优点,并将其工程实践进行了深入改进。具体创新点如下:
s:这是 YOLO 系列中最小的模型。“s” 代表 “small”(小)。该模型在计算资源有限的设备上表现最佳,如移动设备或边缘设备。YOLOv5s 的检测速度最快,但准确度相对较低。
m:这是 YOLO 系列中一个中等大小的模型。“m” 代表 “medium”(中)。m 在速度和准确度之间提供了较好的平衡,适用于具有一定计算能力的设备。
l:这是 YOLO 系列中一个较大的模型。“l” 代表 “large”(大)。l 的准确度相对较高,但检测速度较慢。适用于需要较高准确度,且具有较强计算能力的设备。
x:这是 YOLO系列中最大的模型。“x” 代表 “extra large”(超大)。x 在准确度方面表现最好,但检测速度最慢。适用于需要极高准确度的任务,且具有强大计算能力(如 GPU)的设备。
n:这是 YOLO 系列中的一个变体,专为 Nano 设备(如 NVIDIA Jetson Nano)进行优化。n 在保持较快速度的同时,提供适用于边缘设备的准确度。
在特征融合(Neck)方面,Yolov8继续使用PAN的思想,但通过对比Yolov5和Yolov8的结构图,可以看到Yolov8去除了1*1降采样层。
头部(Head)部分相较于Yolov5有较大的改动。Yolov8采用了目前主流的解耦头结构(Decoupled-Head),将分类和检测头分离。此外,Yolov8从Anchor-Based方法切换到了Anchor-Free方法。
在损失函数计算方面,Yolov8使用VFL Loss作为分类损失(在实际训练中使用BCE Loss),同时使用DFL Loss和CIOU Loss作为回归损失。
Yolov8改进了标签分配策略,弃用了以往的IoU分配或单边比例的分配方式,取而代之的是采用Task-Aligned Assigner策略,用于正负样本的分配。
这些创新和改进使Yolov8成为一个在性能和工程实践方面都有重要进展的目标检测模型。
Yolov8的Backbone同样借鉴了CSPDarkNet结构网络结构:
与Yolov5最大区别是,Yolov8使用C2f模块代替C3模块。具体改进如下:
第一个卷积层的Kernel size从6×6改为3x3。所有的C3模块改为C2f模块,如下图所示,多了更多的跳层连接和额外Split操作。
Block数由C3模块3-6-9-3改为C2f模块的3-6-6-3。
由上图可以看出,C2f中每个BottleNeck的输入Tensor的通道数channel都只是上一级的0.5倍,因此计算量明显降低。从另一方面讲,梯度流的增加,也能够明显提升收敛速度和收敛效果。
C2f模块首先以输入tensor(n,c,h,w)经过Conv1层进行split拆分,分成两部分(n,0.5c,h,w),一部分直接经过n个Bottlenck,另一部分经过每一操作层后都会以(n,0.5c,h,w)的尺寸进行Shortcut,最后通过Conv2层卷积输出。也就是对应n+2的Shortcut(第一层Conv1的分支tensor和split后的tensor为2+n个bottenlenneck)。
Neck采用了PANet结构:
Backbone最后SPPF模块(Layer9)之后H、W经过32倍下采样,对应地Layer4经过8倍下采样,Layer6经过16倍下采样。输入图片分辨率为640640,得到Layer4、Layer6、Layer9的分辨率分别为8080、4040和2020。
Layer4、Layer6、Layer9作为PANnet结构的输入,经过上采样,通道融合,最终将PANet的三个输出分支送入到Detect head中进行Loss的计算或结果解算。
与FPN(单向,自上而下)不同的是,PANet是一个双向通路网络,引入了自下向上的路径,使得底层信息更容易传递到顶层。
Head部分相比Yolov5改动较大,直接将耦合头改为类似Yolox的解耦头结构(Decoupled-Head),将回归分支和预测分支分离,并针对回归分支使用了Distribution Focal Loss策略中提出的积分形式表示法。之前的目标检测网络将回归坐标作为一个确定性单值进行预测,DFL将坐标转变成一个分布。
Yolov8采用Anchor-Free方式,因而在yaml文件中移除了anchors参数,并且将多个不同版本的模型参数写在一个yaml,同时在深度因子和宽度因子后面增加了 最大通道数 这一参数。
Loss计算过程包括两部分:正负样本分配策略和Loss计算
在目标检测中,正负样本分配策略是指在训练期间为每个样本分配一个权重,以便模型更加关注困难的样本和重要的样本。
常见的正负样本分配策略包括动态分配策略和静态分配策略两种。
静态分配策略:静态分配策略是指在训练开始之前,固定为一组预先定义的权重,这些权重不会在训练过程中改变。这种分配策略通常基于经验得出,可以根据数据集的特点进行调整,但是不够灵活,可能无法充分利用样本的信息,导致训练效果不佳。
动态分配策:动态分配策略则可以根据训练的进展和样本的特点动态调整权重。在训练初期,模型可能会很难区分正负样本,因此应该更加关注那些容易被错分的样本。随着训练的进行,模型逐渐变得更加强大,可以更好地区分样本,因此应该逐渐减小困难样本的权重,同时增加易分样本的权重。动态分配策略可以根据训练损失或者其他指标来进行调整,可以更好地适应不同的数据集和模型。
典型的动态分配策略如YOLOX的simOTA、TOOD的Task-Aligned Assigner和RTMDet的DynamicSoftLabelAssigner等。YOLOv5采用的依然是静态分配策略,考虑到动态分配策略的优异性,「Yolov8算法中直接引用了TOOD中的Task-Aligned Assigner正负样本分配策略」。
Task-Aligned Assigner,顾名思义就是对齐分配器,即在训练过程中动态调整正负样本的分配比例。怎么个对齐方式呢?「根据分类与回归的分数,作为加权分数,选择正样本」。
具体执行步骤如下:
Loss计算包括2个分支:分类和回归分支,没有了之前的objectness(目标前景/背景)分支。
VFL Loss
VFL Loss(Varifocal Loss)的灵感来自Focal Loss,这里也简要回顾一下Focal Loss。Focal Loss的设计是为了解决密集目标检测器训练中前景类和背景类之间极度不平衡的问题。Focal Loss定义为:
其中,1为ground-truth类,表示前景类的预测概率。如公式所示,调制因子(γ为前景类和γ为背景类)可以减少简单样例的损失贡献,相对增加误分类样例的重要性。
然而,不同的Focal Loss处理的正负样本是对称的,VFL Loss则是提出了非对称的加权操作,定义如下:
其中,预测值为目标分数。对于前景点将其ground truth类别分数设定为「生成的边界框和它的ground truth(gt_IoU)之间的IoU」,否则为0;而对于背景点,所有类的分数为0。
如公式所示,通过利用γ的因子缩放损失,VFL Loss仅减少了负例(q=0)的损失贡献,而不以同样的方式降低正例(q>0)的权重。这是因为正样本相对于负样本是非常罕见的,应该保留它们的学习信息。
BCE Loss
由源代码可以看出,Yolov8实际采用的是BCE Loss,如下图所示:
这也说明,Yolov8团队应该是对VFL Loss和BCE Loss都尝试过,但最终发现使用VFL和使用普通的BCE效果相当,优势不明显,故采用了简单的BCE Loss。
DFL Loss
常规的坐标点回归方式是一种狄拉克分布,即认为某一点概率无穷大,而其它点概率为0(概率密度是一条尖锐的竖线,如下图),这种方式认为标签是绝对正确的。
但是在实际应用中,对于遮挡、模糊场景下目标框的边界存在一定的不确定性,如下图中滑板左侧边界和大象右侧边界,常规的回归方式是不能解决这种不确定问题的,此时学习一个边界分布更为合理。
但是如果分布过于随意,网络学习的效率可能不会高,因为一个积分目标可能对应无穷多种分布模式。
考虑到真实的分布通常不会距离标注的位置太远,因此Distribution Focal Loss选择优化标签y附近左右两个位置(yi与yi+1)的概率,使得网络分布聚焦到标签值附近。