Feature Selective Anchor-Free Module for Single-Shot Object Detection

在网上找资料时,发现一篇推文CVPR2019目标检测方法进展,重点介绍cvpr2019年目标检测亮眼文章,里面提到很多惊奇的改进思路,值得一看。

Feature Selective Anchor-Free Module for Single-Shot Object Detection

这篇论文是在RetinaNet上加上anchor-free分支,使用anchor-based和
anchor-free进行联合训练得到最终的FSAF模型。

Feature Selective Anchor-Free Module for Single-Shot Object Detection_第1张图片

输出anchor-free分支解释

在RetinaNet的输出端,FSAF在每层引入了额外的两层卷积层,分别用于基于anchor-free分支的分类及回归,分别生成一个 W × H × K classification output 和一个 W × H × 4 的 regression output。

Feature Selective Anchor-Free Module for Single-Shot Object Detection_第2张图片

输出详解

对于给定的一个实例,我们知道其类别k,及bounding box坐标

所以下图中,对于‘car’这个实体,对于第l层的尺寸为
  1. 分类的输出
    anchor-free就是标签没有使用anchor box,在 instance 的 0.2倍 box=(bl(p)) 内为 positive,提供的标签即为“车”这个 class id;在 0.5 倍 box=(bl(p)) 内进行忽略;其他都设为负。而 regression output 只针对于 0.2 倍的 instance box 进行训练,回归像素点(i,j)离边界的距离
Feature Selective Anchor-Free Module for Single-Shot Object Detection_第3张图片

在训练时,该实例可以被放到任意一层中。定义b在Pl层上的映射为

网络中关于实体的有效区域为:

及忽略区域

比例区域,通过比例系数 e(e)=0.2和e(i)=0.5控制。

  1. 框回归的输出

    回归输出的ground truth是与类别无关的4个offset maps,实例只作用于offeset maps上的有效区域.对于该区域内的每个像素,用一个四维的向量表示映射框
    分别代表当前像素与上,左,下,右边的距离。

在进行Inference时,需要将分类及回归分支的预测结果进行解码,假设对于某个位置(i,j),预测的偏移量为

,则预测得到的距离为

,同时预测得到的映射框的左上角及右下角的位置为

参考

CVPR2019 | 目标检测 FSAF:为金字塔网络的每一层带去最好的样本
论文阅读笔记四十六:Feature Selective Anchor-Free Module for Single-Shot Object Detection(CVPR2019)

你可能感兴趣的:(Feature Selective Anchor-Free Module for Single-Shot Object Detection)