Double-Head RCNN: Rethinking Classification and Localization for Object Detection论文笔记

文章目录

    • 1. Motivation
    • 2. Double-Head
      • 2.1 Motivation and Hypothesis
      • 2.2 Network Structure
    • 3. Experiment

Attention:

论文解读的博客原文发布于个人github论文合集 欢迎关注,有想法欢迎一起讨论!私信评论均可。

后面有些语法在CSDN的markdown上不支持,导致显示bug,我就懒得改了,有需求直接访问原博客查看。

创建人 github论文汇总 个人博客 知乎论文专栏
ming71 paperdaily chaser 专栏

论文发布日期:2019.4.6

1. Motivation

  • 来源:COCO2018检测挑战冠军获得者发现,实例分割任务中将bbox回归与分割在同一个卷积head上学习,效果比将bbox回归与分类在同一个fc head上学习好。
  • 设想:检测任务中使用不同的头部分别完成分类和回归

2. Double-Head

2.1 Motivation and Hypothesis

  如上所述,前提假设是全连接和卷积的head具有不同的功能偏向性。为了验证,后面设计对比实验,对比看出只选择全用fc或conv或者反用效果都不如分别对应使用效果好,从而验证了假设。

2.2 Network Structure

Double-Head RCNN: Rethinking Classification and Localization for Object Detection论文笔记_第1张图片

  安排的很明白了。值得注意一下的是b的向量拉长使用的是均值池化,这个有意思。c图是标准的Double-Head结构很简单。d图是泛化的Double-Head结构,相比之下不难看出就是在进行分类时,不仅用到了分类head的结果,也加入回归。loss设置如下,可见是融合不同分支信息,也不难看出令对应lambda=0就是两种普通head之一。

分类器输出结果的监督信息融合规则:

  实验中设计的backbone是FPN,具体不赘述;fc-head就是两个1024fc层;conv-head有三种设计如下,分别是残差通道增加模块、bottleneck、non-local模块,进行组合;loss很简单,就是RPN-loss+w1x fc-loss+w2 x conv-loss,w1,w2是权重。

Double-Head RCNN: Rethinking Classification and Localization for Object Detection论文笔记_第2张图片

3. Experiment

  • 假设验证
Double-Head RCNN: Rethinking Classification and Localization for Object Detection论文笔记_第3张图片

可见单独用一种head处理两个任务是不如分别处理的好(体现了结构与功能系相适应)。

  • Depth of conv-head
    结果来看,趋势是越深越好,为了权衡速度,最后选择3残差2non-local共5个模块。

  • Balance Weights

Double-Head RCNN: Rethinking Classification and Localization for Object Detection论文笔记_第4张图片

首先看ab和cd对比,明显后面两个的整体map高,效果好,印证不同head的有效性;再看c,表示采取不同比例loss的互监督效果,右上角是不采取互监督两head完全独立,效果也不赖(相比最好的40.0差不多);最后一张是在分类器输出采取信息融合,得到的效果更好。

  • ​Fusion of Classifiers
Double-Head RCNN: Rethinking Classification and Localization for Object Detection论文笔记_第5张图片

权重就不说了,按照上面对比实验选的。有意思的是其实仔细看会发现这里的差别都没有特别大,硬要说大,那就是一个是融合的有无,一个是信息全局利用的方式好过max。

  • ​检测质量分析
印证假设,其实可以看看还有东西可以想。


你可能感兴趣的:(papers)