Equalization Loss论文小结(CVPR2020)

接上一篇
BAGS小结(CVPR2020 Oral Paper)

今天继续分享一篇有意思的paper,关于长尾分布下的目标检测问题。
Code
Equalization Loss for Long-Tailed Object Recognition
该方法主要关注large-scale目标检测数据集上的长尾分布问题,在最新的LVIS数据上达到了SOTA,是LVIS Challenge冠军。所提出的方法不仅可以应用到目标检测,作者还给出了一种基于softmax分类的EQLoss,很有趣。
所谓长尾分布,简单来说就是指类别很多且极不平衡,头部类别少尾部类别多,比如这样:
Equalization Loss论文小结(CVPR2020)_第1张图片

论文首先回顾了传统的softmax-cross-entropy-loss和sigmoid-cross-entropy-loss来引出问题。
Softmax Cross-Entropy:
Equalization Loss论文小结(CVPR2020)_第2张图片

你可能感兴趣的:(机器不学习,深度学习,人工智能,pytorch,机器学习,神经网络)