目标检测算法整理(简洁版)

目录

    • 目录
    • 完整版链接
    • 区域提名方法
    • 有区域提名算法
      • OverFeat(2013)
      • R-CNN
      • Fast R-CNN
      • Fster R-CNN
      • R-FCN
    • 无区域提名算法
      • YOLO
      • SSD

完整版链接

如果想要详细的了解深度学习在目标检测上的应用,可以戳
https://www.cnblogs.com/gujianhan/p/6035514.html

https://www.cnblogs.com/skyfsm/p/6806246.html

区域提名方法

  • 滑动窗口:穷举法,不同的尺度和长宽比窗口。
  • 规则块:选用固定的大小和长宽比,在特定场景中比较有效。
  • 选择性搜索:自底向上不断合并候选区域的迭代过程。

有区域提名算法

OverFeat(2013)

  1. 滑动窗口进行区域提名
  2. 多尺度滑动窗口增加检测数量
  3. 回归模型预测每个对象的位置
  4. 边框合并

创新点: OverFeat是CNN用来进行目标检测的早期工作,主要思想是多尺度滑窗进行分类、定位和检测。

R-CNN

  1. 区域提名:选择性搜索
  2. 区域大小归一化:resize
  3. 特征提取:CNN
  4. 分类和回归:识别、微调边框位置

创新点: 将overfeat的多尺度滑窗换成选择性搜索.

Fast R-CNN

Fast R-CNN用到了SPP-net的思想,来解决R-CNN的crop和wrap导致物体不全或拉伸的问题。

SPP-net: 在卷积层和全连接层之间加入SPP layer,此时网络的输入可以是任意尺度的,在SPP layer中每一个pooling的filter会根据输入调整大小,而SPP的输出尺度始终是固定的。

解决问题: R-CNN在对区域提名进行特征提取时会有重复计算部分,Fast R-CNN修正了这个问题。

  1. 特征提取:以整张图片作为输入
  2. 区域提名:从原始图片进行区域提名,然后把候选框投影到特征层
  3. 区域归一化:简化的SPP层——ROI池化层
  4. 分类和回归

Fster R-CNN

解决问题: Fast R-CNN使用的是选择性搜索进行区域提名,速度仍不够快。

创新点: 使用RPN网络。RPN网络以一张任意大小的图片为输入,输出一批矩阵区域提名,每个区域对应一个目标分数和位置信息。

  1. 特征提取
  2. 区域提名:RPN
  3. 区域判定和回归:对每个矩形框进行二分类(是否有object),并用k个回归模型微调边框位置和大小。
  4. 分类与回归

R-FCN

创新点: 去除了最后的全连接层,使用了ResNet。

  1. 区域提名:RPN
  2. 分类和回归

无区域提名算法

YOLO

  1. 把输入图片缩放到448x448
  2. 运行卷积网络
  3. 对模型置信度卡阈值,得到目标位置及类别。

SSD

特点:

  1. 从YOLO中继承了将detection转化为regression的思路,同时一次即可完成网络训练
  2. 基于Faster RCNN中的anchor,提出了相似的prior box;
  3. 加入基于特征金字塔(Pyramidal Feature Hierarchy)的检测方式,相当于半个FPN思路

**已被YOLO9000超越**1

你可能感兴趣的:(目标检测,深度学习)