读论文系列:Object Detection CVPR2017 YOLOv2(附带讲YOLOv3)

YOLOv2/YOLO9000

YOLO9000: Better, Faster, Stronger

YOLOv2 是一个单纯的改进型工作,在YOLO上集成了很多已有的trick(比如加了BN,anchor),因为是trick文章,这里就不做完整解读了,可以参考这篇解读,我觉得其中比较有新意的地方有两个:

  • Dimension Clusters得到更好的anchor
  • YOLO9000:用WordTree整合ImageNet和COCO数据集联合训练Darknet(有种知识图谱和DL结合的感觉),用多个softmax loss分别做不同层次的分类

改进点list:

  • Batch Normalization
  • 用448x448的图片训练分类器
  • 使用anchor
  • 聚类得到更好的初始anchor位置(使用IOU进行box距离判断)
  • 直接预测box位置
  • 类似ResNet的passthrough feature叠加
  • 由于是全卷积网络,可以接收不同尺度输入进行训练
  • Darknet-19:大量使用3x3和1x1卷积,BN
  • 用wordtree整合ImageNet和COCO数据集,多标签联合训练Darknet

YOLOv3

YOLOv3也是一个单纯的改进性工作。。没啥创新性,但是效果好_(:з」∠)_

作者也觉得这不算是一篇正式paper,只是一个工作报告,所以论文写得跟玩儿似的

读论文系列:Object Detection CVPR2017 YOLOv2(附带讲YOLOv3)_第1张图片
YOLOv3

改进点list

  • 使用更多的shotcut,构造更深的darknet-53(ResNet提出来的)
读论文系列:Object Detection CVPR2017 YOLOv2(附带讲YOLOv3)_第2张图片
YOLOv3网络结构
  • 使用三层feature map分别对应不同尺度的anchor(SSD,FPN已经这样做过了)
  • 由于softmax分类loss前提假设是每个对象只属于一个分类,对于有包含关系的类别,softmax没那么适用,于是yolov3使用了逻辑回归的方法做分类,同时回归一个anchor属于多个类的概率,ground truth值是0或1,分别代表一个anchor是否与ground truth box相匹配。

你可能感兴趣的:(读论文系列:Object Detection CVPR2017 YOLOv2(附带讲YOLOv3))