YOLO的思想:
本文逐步介绍yolov1-v3的设计过程
YOLO将输入图像分成SxS个格子,如果某物体的Ground truth的中心位置的坐标落入到某个格子,那么这个格子就负责检测出这个物体。
每个格子预测B个bounding box及其置信度,以及C个类别概率。
1、YOLOv1网络借鉴GoogleNet分类网络结构。但并未使用inception 模块,而是使用的1x1卷积层(1x1卷积层的存在是为了跨通道信息整合)+3x3卷积层简单替代。
2、yolov1在最后使用全连接层进行类别输出,其输出维度是SxSx(Bx5+C)。
3、yolov1网络比VGG16快,准确率稍差。
缺点:
1、输入尺寸固定:由于输出层为全连接层,因此在检测时,YOLOv1训练模型只支持与训练图像相同的输入分辨率;
2、占比较小的目标检测效果不好:虽然每个格子可以预测B个bounding box,但是最终只选择只选择IOU最高的bounding box作为物体检测输出,即每个格子最多只预测出一个物体。当物体占画面比例较小,如图像中包含畜群或鸟群时,每个格子包含多个物体,但却只能检测出其中一个。
YOLO全部使用均方和误差作为loss函数。由三部分组成:坐标误差、IOU误差和分类误差。
YOLO在训练过程中loss计算如下所示:
1)预训练。使用 ImageNet 1000 类数据训练YOLO网络的前20个卷积层+1个average池化层+1个全连接层。训练图像分辨率resize到224x224。
2)用步骤1)得到的前20个卷积层网络参数来初始化YOLO模型前20个卷积层的网络参数,然后用 VOC 20 类标注数据进行YOLO模型训练。检测通常需要有细密纹理的视觉信息,所以为提高图像精度,在训练检测模型时,将输入图像分辨率从224 × 224 resize到448x448。
YOLO与Fast R-CNN相比有较大的定位误差,与基于region proposal的方法相比具有较低的召回率。但是,YOLO在定位识别背景时准确率更高,而 Fast-R-CNN 的假阳性很高。
为提高物体定位精准性和召回率,YOLO作者提出了YOLO9000,相比v1提高了训练图像的分辨率;引入了faster rcnn中anchor box的思想,对网络结构的设计进行了改进,输出层使用卷积层替代YOLO的全连接层,联合使用coco物体检测标注数据和imagenet物体分类标注数据训练物体检测模型。相比YOLO,YOLO9000在识别种类、精度、速度、和定位准确性等方面都有大大提升。
YOLO与Fast R-CNN相比有较大的定位误差,与基于region proposal的方法相比具有较低的召回率。因此YOLO v2主要改进是提高召回率和定位能力。下面是改进之处:
BN层:v1中也大量使用了BN层,同时在定位层后边用了dropout,v2中取消了dropout,在卷积层全部使用BN。
高分辨率分类器:v1中使用224x224训练分类器网络,扩大到448用于检测网络。v2将ImageNet以448x448的分辨率微调最初的分类网络,迭代10epochs。
Anchor Boxes:v1中直接在卷积层之后使用全连接层预测bbox的坐标。v2借鉴Faster R-CNN的思想预测bbox的偏移。移除了全连接层,并删除一个pooling层使特征的分辨率更大一些。另外调整了网络的输入(448->416)以使得位置坐标是奇数只有一个中心点。v1中每张图片预测7x7x2=98个box,而v2加上Anchor Boxes能预测超过1000个。
YOLO v2对Faster R-CNN的手选先验框方法做了改进,采样k-means在训练集bbox上进行聚类产生合适的先验框.由于使用欧氏距离会使较大的bbox比小的bbox产生更大的误差,而IOU与bbox尺寸无关,因此使用IOU参与距离计算,使得通过这些anchor boxes获得好的IOU分值。距离公式:
使用聚类进行选择的优势是达到相同的IOU结果时所需的anchor box数量更少,使得模型的表示能力更强,任务更容易学习。
算法过程是:将每个bbox的宽和高相对整张图片的比例(wr,hr)进行聚类,得到k个anchor box,由于darknet代码需要配置文件中region层的anchors参数是绝对值大小,因此需要将这个比例值乘上卷积层的输出特征的大小.如输入是416x416,那么最后卷积层的特征是13x13.
细粒度特征:在Faster R-CNN和SSD中均使用了不同的feature map以适应不同尺度大小的目标。YOLOv2使用了一种不同的方法,简单添加一个pass through layer,把浅层特征图(26x26)连接到深层特征图(连接到新加入的三个卷积核尺寸为3 * 3的卷积层最后一层的输入)。 通过叠加浅层特征图相邻特征到不同通道(而非空间位置),类似于Resnet中的identity mapping。这个方法把26x26x512的特征图叠加成13x13x2048的特征图,与原生的深层特征图相连接,使模型有了细粒度特征。此方法使得模型的性能获得了1%的提升。
Multi-Scale Training:和YOLOv1训练时网络输入的图像尺寸固定不变不同,YOLOv2(在cfg文件中random=1时)每隔几次迭代后就会微调网络的输入尺寸。训练时每迭代10次,就会随机选择新的输入图像尺寸。因为YOLOv2的网络使用的是down samples倍率为32,所以使用32的倍数调整输入图像尺寸{320,352,...,608}。训练使用的最小图像尺寸为320x320,最大的图像尺寸为608x608.这使得网络可以适应多种不同尺度的输入。
分类网络
YOLOv2提出了一种新的分类模型Darknet-19。借鉴了很多其它网络的设计概念.主要使用3x3卷积并在pooling之后channel数加倍(VGG);global average pooling替代全连接做预测分类,并在3x3卷积之间使用1x1卷积压缩特征表示(Network in Network);使用 batch normalization 来提高稳定性,加速收敛,对模型正则化.
Darknet-19的结构如下表: 包含 19 conv + 5 maxpooling.
训练:使用Darknet框架在ImageNet1000类上训练160epochs,学习率初始为0.1,以4级多项式衰减。weightdecay=0.0005,momentum=0.9,使用标准的数据增广方法:random crops,rotations,(hue,saturation),exposure shifts。
之后将输入从224放大至448,学习率调整为0.001,迭代10epochs。结果达到top-1 accuracy 76.5% , top-5 accuracy 93.3%.
检测网络
在分类网络中移除最后一个1x1的层,在最后添加3个3x3x1024的卷积层,再接上输出是类别个数的1x1卷积.
对于输入图像尺寸为Si x Si
,最终3x3卷积层输出的feature map是Oi x Oi
(Oi=Si/(2^5)),对应输入图像的Oi x Oi个栅格,每个栅格预测#anchors
种boxes大小,每个box包含4个坐标值,1个置信度和#classes
个条件类别概率,所以输出维度是Oi x Oi x #anchors x (5 + #classes)
。
添加跨层跳跃连接(借鉴ResNet等思想),融合粗细粒度的特征:将前面最后一个3x3x512卷积的特征图,对于416x416的输入,该层输出26x26x512,直接连接到最后新加的三个3x3卷积层的最后一个的前边.将26x26x512变形为13x13x1024与后边的13x13x1024特征按channel堆起来得到13x13x3072.从yolo-voc.cfg文件可以看到,第25层为route层,逆向9层拿到第16层26 * 26 * 512的输出,并由第26层的reorg层把26 * 26 * 512 变形为13 * 13 * 2048,再有第27层的route层连接24层和26层的输出,堆叠为13 * 13 * 3072,由最后一个卷积核为3 * 3的卷积层进行跨通道的信息融合并把通道降维为1024。
训练:作者在VOC07+12以及COCO2014数据集上迭代了160 epochs,初始学习率0.001,在60和90 epochs分别减小为0.1倍.
网络结构如下(输入416,5个类别,5个anchor box; 此结构信息由Darknet框架启动时输出):
提出了一种联合训练方法,能够容许同时使用目标检测数据集和分类数据集。使用有标记的检测数据集精确定位,使用分类数据增加类别和鲁棒性。
YOLOv3在Pascal Titan X上处理608x608图像速度达到20FPS,在 COCO test-dev 上 [email protected] 达到 57.9%,与RetinaNet(FocalLoss论文所提出的单阶段网络)的结果相近,并且速度快4倍.
YOLOv3的模型比之前的模型复杂了不少,可以通过改变模型结构的大小来权衡速度与精度。
速度对比如下:
改进之处:
1)多尺度预测(类FPN)
2)更好的基础分类网络(类ResNet)和分类器
分类器-类别预测:
YOLOv3不使用Softmax对每个框进行分类,主要考虑因素有两个:
1. Softmax使得每个框分配一个类别(score最大的一个),而对于Open Images这种数据集,目标可能有重叠的类别标签,因此Softmax不适用多标签分类;
2. Softmax可被独立的多个logistic分类器替代,且准确率不下降,分类损失函数采用binary cross-entropy loss。(logistic分类器是以Bernoulli(伯努利) 分布为模型建模的,它可以用来分两种类别;而softmax分类器以多项式分布(Multinomial Distribution)为模型建模的,它可以分多种互斥的类别。)
多尺度预测:
每种尺度预测3个box,anchor的设计方式仍然使用聚类得到9个聚类中心,将其按照大小均分给三种尺度。
1)尺度1:在基础网络之后增加一些卷积层再输出box信息;
2)尺度2:从尺度1中的倒数第二层的卷积上采样(x2)再与最后一个16x16大小的特征图相加,再次通过多个卷积后输出box信息。相比尺度1变大两倍;
3)尺度3:与尺度2类似,使用了32x32大小的特征图。
仿ResNet,与ResNet-101或ResNet-152准确率接近,但速度更快。对比如下:
网络结构:
边框预测
作者尝试了常规的预测方式(Faster R-CNN),然而并不奏效:x,y的偏移作为box的长宽的线性变换
仍使用之前的logistic方式:
优点:
但相比RCNN系列物体检测方法,YOLO具有以下缺点:
1、统一网络:
YOLO没有显示求取region proposal的过程。Faster R-CNN中尽管RPN与fast rcnn共享卷积层,但是在模型训练过程中,需要反复训练RPN网络和fast rcnn网络.
相对于R-CNN系列的"看两眼"(候选框提取与分类,图示如下),YOLO只需要Look Once.
2、YOLO统一为一个回归问题
而R-CNN将检测结果分为两部分求解:物体类别(分类问题),物体位置即bounding box(回归问题)
R-CNN pipline:
Darknet 由 C 语言和 CUDA 实现, 对GPU显存利用效率较高(CPU速度差一些, 通过与SSD的Caffe程序对比发现存在CPU较慢,GPU较快的情况). Darknet 对第三方库的依赖较少,且仅使用了少量GNU linux平台C接口,因此很容易移植到其它平台,如Windows或嵌入式设备.
region层:参数anchors指定kmeans计算出来的anchor box的长宽的绝对值(与网络输入大小相关),num参数为anchor box的数量,
另外还有bias_match,classes,coords等参数.在parser.c代码中的parse_region函数中解析这些参数,并保存在region_layer.num参数保存在l.n变量中;anchors保存在l.biases数组中.region_layer的前向传播中使用for(n = 0; n < l.n; ++n)这样的语句,因此,如果在配置文件中anchors的数量大于num时,仅使用前num个,小于时内存越界.
region层的输入和输出大小与前一层(1x1 conv)的输出大小和网络的输入大小相关.
Detection层: 坐标及类别结果输出层.
yolo层: 指定anchors等信息, 计算loss等. YOLOv3使用三个yolo层作为输出.
upsample层: 上采样层, 进行2倍上采样.
region层和Detection层均是YOLOv2模型所使用的层, upsample层和yolo层在YOLOv3中使用.
原文: https://www.cnblogs.com/makefile/p/YOLOv3.html © 康行天下