YOLOv5【网络结构】超详细解读总结!!!建议收藏✨✨!

前言

官方源码仓库:GitHub - ultralytics/yolov5: YOLOv5 in PyTorch > ONNX > CoreML > TFLite

       YOLOv5至今没有论文发表出来,YOLOv5项目的作者是Glenn Jocher并不是原作者Joseph Redmon作者当时也有说准备在2021年的12月1号之前发表,并承诺如果到时候没有发表就吃掉自己的帽子(不知道有没有吃哈哈哈哈)。


  其他学习YOLOv5直通车:

YOLOv5【使用云GPU进行训练】超详细教程!!!

YOLOv5【使用云GPU连接本地Pycharm进行训练】超详细教程!!!

YOLOv5【网络结构】超详细解读!!✨✨

YOLOv5【目录结构源码】超详细解读!!!

 YOLOv5【detect.py源码及参数】超详细注释解读!! 


一、YOLOv5 网络结构

       Yolov5官方代码中,给出的目标检测网络中一共有4个版本,分别是Yolov5s、Yolov5m、Yolov5l、Yolov5x四个模型。如下图所示:这几个模型的结构基本是一样的,不同的是(depth_multiple)模型深度和width_multiple(模型宽度)这两个参数。YOLOv5s网络是YOLOv5系列中深度最小,特征图的宽度最小的网络。其他的三种都是在此基础上不断加深,不断加宽。

YOLOv5各版本算法性能测试图:

YOLOv5【网络结构】超详细解读总结!!!建议收藏✨✨!_第1张图片

      作者是在COCO数据集上进行测试的,在YOLOv4解读中提到过,COCO数据集的小目标占比,因此四种网络结构性能上来说各有千秋。 

YOLOv5 网络结构主要由以下几部分组成:

  • 骨干网络(Backbone): New CSP-Darknet53
  • 颈部网络(Neck): SPPF, New CSP-PAN
  • 头部网络(Head): YOLOv3 Head

基于深度学习的现在目标检测算法中主要有三个组件:Backbone、Neck和Head。

Backbone:骨干网络,主要指用于特征提取的,已在大型数据集(例如ImageNet|COCO等)上完成预训练,拥有预训练参数的卷积神经网络,例如:ResNet-50、Darknet53等
Head:检测头/头部网络,主要用于预测目标的种类和位置(bounding boxes)
Neck:颈部网络,在Backone和Head之间,会添加一些用于收集不同阶段中特征图的网络层。
基于深度学习的目标检测模型的结构是这样的:输入->主干->脖子->头->输出。主干网络提取特征,脖子提取一些更复杂的特征,然后头部计算预测输出。

YOLOv5与Yolov3及Yolov4进行比较。主要的不同点:

(1)输入端 : Mosaic数据增强(v4中使用到了)、自适应锚框计算、自适应图片缩放
(2)骨干网络(Backbone) : Focus结构,CSP结构
(3)颈部网络(Neck) : FPN+PAN结构
(4)头部网络(Head) : GIOU_Loss

YOLOv5基本组件:

  • Focus:基本上就是YOLO v2的passthrough。
  • CBL:由Conv+Bn+Leaky_relu激活函数三者组成。
  • CSP1_X:借鉴CSPNet网络结构,由三个卷积层和X个Res unint模块Concate组成。
  • CSP2_X:不再用Res unint模块,而是改为CBL。
  • SPP:采用1×1,5×5,9×9,13×13的最大池化的方式,进行多尺度融合。

二、YOLOv5输入端

2.1 Mosaic数据增强

      Yolov5的输入端采用了和Yolov4一样的Mosaic数据增强的方式。Mosaic是参考2019年底提出的CutMix数据增强的方式,但CutMix只使用了两张图片进行拼接,而Mosaic数据增强则采用了4张图片,随机缩放、随机裁剪、随机排布的方式进行拼接,使模型在更小的范围内识别目标。。

 Mosaic数据增强的主要步骤为:

  1. 随机选取图片拼接基准点坐标(xc,yc),另随机选取四张图片。
  2. 四张图片根据基准点,分别经过尺寸调整和比例缩放后,放置在指定尺寸的大图的左上,右上,左下,右下位置。
  3. 根据每张图片的尺寸变换方式,将映射关系对应到图片标签上。
  4. 依据指定的横纵坐标,对大图进行拼接。处理超过边界的检测框坐标。

采用Mosaic数据增强的优点:

  1. 丰富数据集: 随机使用4张图像,随机缩放后随机拼接,增加很多小目标,大大增加了数据多样性。
  2. 增强模型鲁棒性: 混合四张具有不同语义信息的图片,可以让模型检测超出常规语境的目标。
  3. 加强批归一化(Batch Normalization)的效果: 当模型设置 BN 操作后,训练时会尽可能增大批样本总量(BatchSize),因为 BN 原理为计算每一个特征层的均值和方差,如果批样本总量越大,那么 BN 计算的均值和方差就越接近于整个数据集的均值和方差,效果越好。
  4. 有利于提升小目标检测性能: Mosaic 数据增强图像由四张原始图像拼接而成,这样每张图像会有更大概率包含小目标,从而提升了模型的检测能力。

Mosaic数据增强的内容在YOLOv4解读中提到过可以查看之前的内容。

2.2 自适应锚框计算

     在之前学习的YOLO系列算法中,对于不同的数据集,初始设定长宽的锚框。

     在YOLOv3和YOLOv4中,训练不同的数据集,都是通过单独的程序运行来获得初始锚点框。在 YOLOv5 中,则是将此功能嵌入到整个训练代码里中。所以在每次训练开始之前,它都会根据不同的数据集来自适应计算不同训练集中的最佳锚框值。

如果觉得计算的锚框效果并不好,也可以在代码中将此功能关闭。指令代码:

控制的代码即train.py中上面一行代码,设置成False,每次训练时,不会自动计算。

自适应的计算具体过程:

  1. 获取数据集中所有目标的宽和高。
  2. 将每张图片中按照等比例缩放的方式到 resize 指定大小,这里保证宽高中的最大值符合指定大小。
  3. 将 bboxes 从相对坐标改成绝对坐标,这里乘以的是缩放后的宽高。
  4. 筛选 bboxes,保留宽高都大于等于两个像素的 bboxes。
  5. 使用 k-means 聚类三方得到n个 anchors,与YOLOv3、YOLOv4 操作一样。
  6. 使用遗传算法随机对 anchors 的宽高进行变异。倘若变异后的效果好,就将变异后的结果赋值给 anchors;如果变异后效果变差就跳过,默认变异1000次。这里是使用 anchor_fitness 方法计算得到的适应度 fitness,然后再进行评估。 

2.3 自适应图片缩放

        在目标检测算法中,不同的图片的长宽都不相同,因此常用的方式是将原始图片统一缩放到一个标准尺寸,再送入检测网络中。

        原始的缩放方法存在着一些问题,在实际的使用中的很多图片的长宽比不同,缩放填充之后,两端的黑边大小都不相同,然而如果填充的过多,会存在大量的信息冗余,从而影响整个算法的推理速度。为了进一步提升YOLO v5的推理速度,该算法提出一种方法能够自适应的添加最少的黑边到缩放之后的图片中。

具体步骤如下:

YOLO算法中常用416*416等尺寸,对下面800*600的图像进行缩放。

(1) 根据原始图片大小以及输入到网络的图片大小计算缩放比例

YOLOv5【网络结构】超详细解读总结!!!建议收藏✨✨!_第2张图片

 原始缩放尺寸是416*416,都除以原始图像的尺寸后,可以得到0.52,和0.69两个缩放系数,选择小的缩放系数。

(2)计算缩放后的尺寸

YOLOv5【网络结构】超详细解读总结!!!建议收藏✨✨!_第3张图片

 原始图片的长宽都乘以最小的缩放系数0.52,宽变成了416,而高变成了312。

(3) 计算黑边填充数值

YOLOv5【网络结构】超详细解读总结!!!建议收藏✨✨!_第4张图片

       图中416表示YOLO v5网络所要求的图片宽度,312为缩放后图片的宽度。

       通过加减操作获得需要填充的黑边长度104,然后对该数值执行np.mod 取余操作,获得8个像素点,使用32是因为YOLOv5网络执行了5次下采样操作。最后因将填充的区域分散到图片两边,因此再÷2。

注意:
(1)Yolov5中填充的是灰色,即(114,114,114)。
(2)训练时没有采用缩减黑边的方式,还是采用传统填充的方式,即缩放到416*416大小。只是在测试,使用模型推理时,才采用缩减黑边的方式,提高目标检测,推理的速度。
(3)为什么np.mod函数的后面用32?
因为YOLOv5的网络经过5次下采样,而2的5次方,等于32。所以至少要去掉32的倍数,再进行取余。以免产生尺度太小走不完stride(filter在原图上扫描时,需要跳跃的格数)的问题,再进行取余。

三、骨干网络(Backbone)

3.1 Focus结构

       Focus模块在YOLOv5中是图片进入Backbone前,对图片进行切片操作,具体操作是在一张图片中每隔一个像素拿到一个值,类似于邻近下采样,这样就拿到了四张图片,四张图片互补,长得差不多,但是没有信息丢失,这样一来,将W、H信息就集中到了通道空间,输入通道扩充了4倍,即拼接起来的图片相对于原先的RGB三通道模式变成了12个通道,最后将得到的新图片再经过卷积操作,最终得到了没有信息丢失情况下的二倍下采样特征图。
       以YOLOv5s为例,原始的640 × 640 × 3的图像输入Focus结构,采用切片操作,先变成320 × 320 × 12的特征图,再经过一次卷积操作,最终变成320 × 320 × 32的特征图。
切片操作如下:

YOLOv5【网络结构】超详细解读总结!!!建议收藏✨✨!_第5张图片

作用: 可以使信息不丢失的情况下提高计算力

不足:Focus 对某些设备不支持且不友好,开销很大,另外切片对不齐的话模型就崩了。

后期改进: 在新版中,YOLOv5 将Focus 模块替换成了一个 6 x 6 的卷积层。两者的计算量是等价的,但是对于一些 GPU 设备,使用 6 x 6 的卷积会更加高效。

YOLOv5【网络结构】超详细解读总结!!!建议收藏✨✨!_第6张图片

3.2 CSP结构

     CSPNet主要是将feature map拆成两个部分,一部分进行卷积操作,另一部分和上一部分卷积操作的结果进行concate。

      在之前的YOLOv4网络结构中,借鉴了CSPNet的设计思路,在主干网络中设计了CSP结构。下图是YOLOv4的网络结构图:

YOLOv5【网络结构】超详细解读总结!!!建议收藏✨✨!_第7张图片

      在目标检测问题中,使用CSPNet作为Backbone带来的提升比较大,可以有效增强CNN的学习能力,同时也降低了计算量。 

      虽然YOLOv4与YOLOv5都是用了CSP结构,但YOLOv5与其不同点在于:YOLOv4中只有主干网络使用了CSP结构。 而YOLOv5中设计了两种CSP结构,以YOLOv5s网络为例,CSP1_ X结构应用于Backbone主干网络,而CSP2_X结构则应用于Neck中。下图清楚的表示出来了:

YOLOv5【网络结构】超详细解读总结!!!建议收藏✨✨!_第8张图片

 四、颈部网络(Neck)

       YOLOv5与YOLOv4的颈部网络(Neck)都采用FPN+PAN的结构。但是在它的基础上做了一些改进操作:YOLOV4的Neck结构中,采用的都是普通的卷积操作,而YOLOV5的Neck中,采用CSPNet设计的CSP2结构,从而加强了网络特征融合能力。
      FPN-PAN结构如下图所示,FPN层自顶向下传达强语义特征,而PAN塔自底向上传达定位特征:     

YOLOv5【网络结构】超详细解读总结!!!建议收藏✨✨!_第9张图片

五、头部网络(Head)

5.1 Bounding box损失函数   

    YOLO v5采用CIOU_LOSS 作为bounding box 的损失函数。下面依次对IOU_Loss、GIOU_Loss、DIOU_Loss以及CIOU_Loss进行介绍。

(1) IOU_Loss : 预测框与GT框之间的交集/预测框与GT框之间的并集。

       这种损失存在一些问题:如下图所示,当预测框和GT框不相交时,即IoU=0,此时无法反映两个框之间的距离,此时该损失函数不可导,即IoU Loss无法优化两个框不相交的情况;当两个预测框大小相同时,那么这两个IOU也相同。

 (2) GIOU_Loss:

        为了解决以上的问题,GIOU_Loss增加了相交尺度的衡量方式。其引入最小外接矩形及外接矩形与并集的差集。

       但是这种方法并不能完全解决这种问题,仍然存在着其他的问题。如上图所示,状态1、2、3都是预测框在GT框内部且预测框大小一致的情况,这时预测框和GT框的差集都是相同的,因此这三种状态的GIoU值也都是相同的,这时GIoU退化成了IoU,无法区分相对位置关系。

(3) DIOU_Loss:

        针对IOU和GIOU损失所存在的问题,DIOU为了解决如何最小化预测框和GT框之间的归一化距离这个问题,DIOU_Loss考虑了预测框与GT框的重叠面积和中心点距离,当GT框包裹预测框的时候,直接度量2个框的距离,因此DIOU_Loss的收敛速度更快一些。

      如下图所示,当GT框包裹预测框时,此时预测框的中心点的位置都是一样的,因此按DIOU_Loss的计算公式,三者的值都是相同的。

(4)CIOU_Loss:

       在DIOU_Loss的基础上增加了一个影响因子,将预测框和GT框的长宽比也考虑了进来。具体的计算方法如下式所示,即CIOU_Loss将GT框的重叠面积、中心点距离和长宽比全都考虑进来了。

YOLOv5【网络结构】超详细解读总结!!!建议收藏✨✨!_第10张图片

      综上:

  • IOU_Loss主要考虑了检测框和GT框之间的重叠面积。
  • GIOU_Loss在IOU的基础上,解决边界框不重合时出现的问题。
  • DIOU_Loss在IOU和GIOU的基础上,同时考虑了边界框中心点距离信息。
  • CIOU_Loss在DIOU的基础上,又考虑了边界框宽高比的尺度信息。

5.2 NMS非极大值抑制

NMS 的本质是搜索局部极大值,抑制非极大值元素。

       非极大值抑制,主要就是用来抑制检测时冗余的框。因为在目标检测中,在同一目标的位置上会产生大量的候选框,这些候选框相互之间可能会有重叠,所以我们需要利用非极大值抑制找到最佳的目标边界框,消除冗余的边界框。

算法流程:


  1.对所有预测框的置信度降序排序
  2.选出置信度最高的预测框,确认其为正确预测,并计算他与其他预测框的 IOU。
  3.根据步骤2中计算的 IOU 去除重叠度高的,IOU > threshold 阈值就直接删除。
  4.剩下的预测框返回第1步,直到没有剩下的为止.
 

SoftNMS:
      当两个目标靠的非常近时,置信度低的会被置信度高的框所抑制,那么当两个目标靠的十分近的时候就只会识别出一个 BBox。为了解决这个问题,可以使用 softNMS。
      它的基本思想是用稍低一点的分数来代替原有的分数,而不是像 NMS 一样直接置零。

六、训练策略

  • (1)多尺度训练(Multi-scale training)。 如果网络的输入是416 x 416。那么训练的时候就会从 0.5 x 416 到 1.5 x 416 中任意取值,但所取的值都是32的整数倍。
  • (2)训练开始前使用 warmup 进行训练。 在模型预训练阶段,先使用较小的学习率训练一些epochs或者steps (如4个 epoch 或10000个 step),再修改为预先设置的学习率进行训练。
  • (3)使用了 cosine 学习率下降策略(Cosine LR scheduler)。
  • (4)采用了 EMA 更新权重(Exponential Moving Average)。 相当于训练时给参数赋予一个动量,这样更新起来就会更加平滑。
  • (5)使用了 amp 进行混合精度训练(Mixed precision)。 能够减少显存的占用并且加快训练速度,但是需要 GPU 支持。

  其他学习YOLOv5直通车:

YOLOv5【使用云GPU进行训练】超详细教程!!!

YOLOv5【使用云GPU连接本地Pycharm进行训练】超详细教程!!!

YOLOv5【网络结构】超详细解读!!✨✨

YOLOv5【目录结构源码】超详细解读!!!

 YOLOv5【detect.py源码及参数】超详细注释解读!!


YOLO系列解读直通车:

YOLO系列-【YOLOv1】

YOLO系列-【YOLOv2】

YOLO系列-【YOLOv3】

YOLO系列-【YOLOv4】

YOLO系列-【YOLOv5】

 


这篇YOLOv5的学习和总结到这里就结束啦,如果有什么问题可以在评论区留言呀~

如果帮助到大家,可以一键三连支持下~

你可能感兴趣的:(YOLOv5,YOLO,目标检测,计算机视觉,人工智能,神经网络)