【论文阅读】【二维目标检测】Adaptive Class Suppression Loss for Long-Tail Object Detection

文章目录

  • motivation
  • Method

文章:Adaptive Class Suppression Loss for Long-Tail Object Detection
2021 CVPR,解决目标检测中的长尾问题。

2020 CVPR中也有几篇文章解决该问题,我写在了另外一篇博客中。

motivation

【论文阅读】【二维目标检测】Adaptive Class Suppression Loss for Long-Tail Object Detection_第1张图片

本文其实就是针对Equalization Loss for Long-Tailed Object Recognition的改动,对于这篇文章,我写在了另外一篇博客中。

在Equalization Loss中,提出了在head中的类别进行分类时,忽略分类loss对long tail中的类别的梯度回传,从而减少压制

本文的出发点有两个:

  • 人为的将类别分成head和long tail两组,会造成训练的不连续性。尤其是在划分head和long tail的分界线周围的一些类别。
  • 不能有效的区分head和long tail中相似的类别,因为在Equalization Loss中,sunglasses这个的分类损失梯度不传到eye mask中。

Method

与Equalization Loss一样,为了long tail中的类别不被压制,就需要减少head类别的分类loss的梯度回传。

本文提出,也不区分是不是head的类别了。对于一个数据集有C个类别,对于一个sample,网络出C个预测,用sigmoid对这C个分别处理,得到C个类别的score(注意:这种处理方式,C个类别的非竞争的,不像softmax,一个大了其它类别就必定小)。根据C个score和真值(真值必定是one-hot的,因为sample必定只属于一个类),可以构建loss,但是,对每个类别的loss要加权。
在这里插入图片描述
假设这个sample是k类,那么权重 w i w_i wi如下设置:
【论文阅读】【二维目标检测】Adaptive Class Suppression Loss for Long-Tail Object Detection_第2张图片
sample为k类,那要k类的score要高,肯定要回传梯度。对于其他的类别,要是预测score也很高,说明这两个类容易错分,所以也要压制。但如果分数不高,那就不回传梯度了,就不压制小类别了。

你可能感兴趣的:(论文阅读)