样本不均衡下的多类损失函数

通常二分类使用交叉熵损失函数,但是在样本不均衡下,训练时损失函数会偏向样本多的一方,造成训练时损失函数很小,对样本较小的类别识别精度不高。解决方法就是给较少的类别加权,形成加权交叉熵(Weighted cross entropy loss)。

第一种方法:

将权值作为类别样本数量的函数

样本不均衡下的多类损失函数_第1张图片

         (http://cn.arxiv.org/pdf/1711.05225v3)

上边说明的时,正负样本的权值和他们的对方数量成比例,举个例子,比如正样本有30,负样本有70,那么正样本的权w+=70/(30+70)=0.7,负样本的权就是w-=30/(30+70)=0.3,

这样算下来的权值是归一的。这种方法比较直观,普通,应该是线性的。

第二种方法:

样本不均衡下的多类损失函数_第2张图片

                          (https://arxiv.org/pdf/1705.02315v4.pdf)

这个的权值直接就是该类别样本数的反比例函数,是非线性的,相比于上边的很有意思,提供了另一种思路。为了统一期间还是使用w+,w-表示这里的beta P和beta N,

举个例子,比如正样本有30,负样本有70,那么正样本的权w+=(30+70)/30=3.33,负样本的权就是w-=(30+70)/70=1.42。

 

第三种方法:Focal loss

https://www.jianshu.com/p/204d9ad9507f

https://arxiv.org/pdf/1708.02002.pdf

 

第四种方法:GHM-C loss

https://arxiv.org/pdf/1811.05181.pdf

你可能感兴趣的:(AI/ML/DL)