Center and Scale Prediction: A Box-free Approach for Object Detection 无anchor的目标检测算法

Center and Scale Prediction: A Box-free Approach for Object Detection

论文下载地址:https://arxiv.org/pdf/1904.02948.pdf

代码下载地址:https://github.com/liuwei16/CSP

算法的创新点:该算法的创新点就是基于关键点检测(FCN网络结构)的基础上增加了一个检测目标的尺度预测分支。在最后卷积层分别输出检测目标的关键点和检测目标的尺度。

算法的整体框架:

Center and Scale Prediction: A Box-free Approach for Object Detection 无anchor的目标检测算法_第1张图片

如上图所示,输入检测图片,通过ConvNet提取特征图,最后在经过两个卷积层:中心点热度图和尺度图分别输出图片中检测物体的中心点的位置和检测物体的尺度大小。

算法的详细网络结构:

Center and Scale Prediction: A Box-free Approach for Object Detection 无anchor的目标检测算法_第2张图片

如上图所示,网络结构主要分为两部分:特征提取网络和检测网络。

特征提取网络:ResNet-50和MobileNet作为基础网络结构。基础的卷积层主要分为五个阶段,输出的特征图下采样倍数分别为2,4,8,16,32.。第5阶段采用了膨胀卷积,使输出保持为输入图像大小的1/16。浅层的网络结构特征信息比较丰富可以提供较强的位置信息,深层的网络结构语义信息比较丰富,鲁棒性较强。最后将stage2到stage5不同大小的特征图通过反卷积结合在一起,得到相同的尺度。假设输入的特征图大小是H*W,结合之后的特征图的大小就是(H/r)*(W/r),r就是一个缩放因子,作者通过实验得到r的大小为4最合适,r 太小会增加计算量,r 太大会导致丢失太多信息。

检测部分:将结合得到的特征图通过一个3*3的卷积,输出为256通道的特征图。然后再通过两个1*1的滑动卷积来预测中心点的位置和物体尺度大小。最后输出结果。

训练过程:

Center and Scale Prediction: A Box-free Approach for Object Detection 无anchor的目标检测算法_第3张图片

GroundTruth:如上图 b 所示。通过 a 的标注框来生成 b 图中的中心点和尺度。中心点由 a 生成,其余的点都为负样本。Scale的高度与宽度标记针对每个对象log(Hk)表示第K个对象的,为了减少模糊,周围2个单位内标记为负数,其它标记为零。相似就可以标记宽度,针对不同的比率。在训练阶段因为很难真正的确定中心点位置,作者引入高斯mask进行辅助,最终的损失有中心位置损失,尺度损失,与offset三个部分组成。

实验结果:

Center and Scale Prediction: A Box-free Approach for Object Detection 无anchor的目标检测算法_第4张图片

你可能感兴趣的:(深度学习)