Gaussian Affinity Loss (ICCV19)论文小结

今天继续记录的是关于imbalance class learning的paper,ICCV19的affinity loss:Paper
关于这篇文章只找到一个unofficial code:
Code

Contribution & Motivation

文章中介绍了一个混合的损失函数,它通过这一单一的损失函数同时进行分类和聚类。 该方法基于欧几里得空间中的"affinity measure",可以带来诸多好处:

  1. 可以直接对分类的boundary实施maximum margin 限制
  2. 一种易于操作的(tractable)方式来保证均匀的空间分布和等间距(equidistant) 聚类中心
  3. 灵活的(flexibility) 学习multiple class prototypes,以保证在特征空间中的多样性和可判别性。

大量实验表明,所提出的affinity loss在视觉分类和验证任务的多个不平衡数据集取得了SOTA的效果,所提出的loss可以很容易地作为一个可微块插入任何深度的体系结构中,并且对不同级别的数据不平衡和损坏的标签具有鲁棒性。

Max-margin Framework

这一部分,作者提出了一个hybrid multi-task formulation在i

你可能感兴趣的:(机器不学习,深度学习,人工智能,算法,不平衡,神经网络)