改变培训策略,或者只会增加培训成本的方法,对测试不影响。
数据扩充:
模拟对象遮挡:
结合多幅图像进行数据扩充:
MixUp、CutMix
创造出了一种基于CutMix的Mosaic data augmentation
Style Transfer GAN
解决类别不平衡:
label smoothing
标签松弛
bbox:
YOLOv4 - use:
CutMix and Mosaic data augmentation、DropBlock regularization、 Class label smoothing、CIoU-loss、CmBN、Self-Adversarial Training、 Eliminate grid sensitivity、Using multiple anchors for a single ground truth、Cosine annealing scheduler、Optimal hyperparameters 通过遗传算法找到最优参数、Random training shapes。
只会增加少量推理成本但却能显著提高对象检测精度的plugin modules和post-processing methods
enhance receptive field:扩充接收域
SPP,ASPP,RFB
attention module:
1、Squeeze-and-Excitation (SE):可以改善resnet50在分类任务上提高 1%精度,但是会增加GPU推理时间10%。SENet
2、Spatial Attention Module (SAM):可以改善resnet50在分类任务上提高0.5%精度,并且不增加GPU推理时间。
feature integration:
早期使用skip connection、hyper-column。随着FPN等多尺度方法的流 行,提出了许多融合不同特征金字塔的轻量级模型。SFAM、ASFF、BiFPN。 SFAM的主要思想是利用SE模块对多尺度拼接的特征图进行信道级配重权。 ASFF使用softmax作为点向水平重加权,然后添加不同尺度的特征映射。 BiFPN提出了多输入加权剩余连接来执行按比例加权的水平重加权,然后加入不 同比例的特征映射。
activation function:
ReLU解决了tanh和sigmoid的梯度消失问题。
LReLU , PReLU , ReLU6 ,SELU, Swish , hard-Swish , Mish 其中Swish和Mish都是连续可微的函数。
post-processing method
nms:c·p
soft-nms:解决对象的遮挡问题
DIoU nms:将中心点分布信息添加到BBox筛选过程中
YOLOv4 - use:
Mish activation、CSP、MiWRC、SPP-block、SAM、PAN、DIoU-NMS
LSVRC2012 (ImageNet)数据集上的分类任务,CSPResNext50要比CSPDarknet53好得多。然而,在COCO数据集上的检测任务,CSP+Darknet53比CSPResNext50更好。
为了使检测器更适合于单GPU上的训练,做了如下补充设计和改进:
[0,0,1]–>[0.01,0.01,0.98]
[…] (1-a)+a/n[1,1…](这里a=0.03 n=3)
IoU
但是这个有个问题,会存在梯度消失的问题hh
引入了GIoU和DIoU,后者的那个两者中心点距离的平方除以
最后是CIoU
在DIoU的基础上加入了αv
DIoU-NMS
BN Batch Normalization
CBN Cross-Iteration Bach Normalization 通过泰勒多项式去估计几个连续batch的统计参数:为了适配单GPU,低batch也可以有好结果
为单ground truth做多个锚点
CSPNet可以大大减少计算量,提高推理速度和准确性
不管输入尺寸是怎样的,SPP层可以产生固定大小的输出,用于多尺度训练,改变池化层大小步长等等实现输出大小一样
不仅在通道也在空间上加了注意力机制
作者认为需要把注意力细化,提高效果。