【看看这长尾学习】Re-Weight方法 EQLloss

阅读论文:

Equalization loss for long-tailed object recognition

论文观点与表现:

  • 每一个类的正样本能够被视为其他类别的负样本, 这样会导致尾部数据类别非常不佳的梯度。
  • 通过忽视上述中的稀有类别的梯度,使得EQLoss在劣势中学习稀有类别信息。

降低了负样本梯度的影响,对比正常情况负样本累计梯度下降明显:
【看看这长尾学习】Re-Weight方法 EQLloss_第1张图片
尾部类别的置信度分数相比原来也有不错的提升(头部类别相比变化不大,一小部分有所下降,但也有一小部分提升),说明网络能够有效的关注到尾部类别的分类:
【看看这长尾学习】Re-Weight方法 EQLloss_第2张图片

实验原理:

  • Softmax公式

【看看这长尾学习】Re-Weight方法 EQLloss_第3张图片

  • Sigmoid公式:

【看看这长尾学习】Re-Weight方法 EQLloss_第4张图片

  • EQL公式Sigmoid版本:

【看看这长尾学习】Re-Weight方法 EQLloss_第5张图片

  • Wj表示为如下:

    • E(r)表示区分前后背景,如果是前景就为1,背景就为0。这里也可以认为是不是包含目标的特征点

    • fj 中j表示第j类在数据集中出现的频率,理解是 (第j类总数)/(总样本数)

    • T(fj) 是一个阈值函数,大于阈值就为0,小于阈值就为1

    • TR()表示的尾部类别所占的比例----- Tail Ratio

【看看这长尾学习】Re-Weight方法 EQLloss_第6张图片

  • EQL公式softmax版公式如下:
    【看看这长尾学习】Re-Weight方法 EQLloss_第7张图片

你可能感兴趣的:(目标检测论文,长尾学习,深度学习,pytorch,神经网络)