LovaszSoftmax

论文:The Lovasz-Softmax loss: A tractable surrogate for the optimization of the intersection-over-union measure in neural networks

Github:https://github.com/bermanmaxim/LovaszSoftmax

 

CVPR2018

 

论文提出了LovaszSoftmax,是一种基于IOU的loss,效果优于cross_entropy,可以在分割任务中使用。最终在Pascal VOC和 Cityscapes 两个数据集上取得了最好的结果。

 

cross_entropy loss:

Softmax 函数:

Jaccard index :

优化的IOU loss:

论文贡献:

  1. 结合Lovasz hinge 和Jaccard loss 解决2值图片的分割问题
  2. 提出了Lovasz-Softmax loss 对多个类别分割的参数设置
  3. 设计了一个基于batch的IOU作为基于dataset IOU的高效代理
  4. 分析和对比各种IOU测量方法
  5. 基于本文的loss,对经典的分割方法的分割效果做出很大的提升

 

定义1:

定义2:

LovaszSoftmax_第1张图片

得出:

(1)对于前景背景分割的问题,使用Lovasz hinge

(2)对于多类别分割问题,使用Lovasz-Softmax loss

 

前景背景分割:

LovaszSoftmax_第2张图片

 

多类别分割:

LovaszSoftmax_第3张图片

 

优化的IOU:

LovaszSoftmax_第4张图片

 

实验结果:

LovaszSoftmax_第5张图片

(a)中第一个图为label,第二个图为特征,通过对第一个图进行高斯滤波

fi ∼ N (e; 1) ,e=1/2对于前景,e=-1/2对于背景。

(b)Lovasz hinge 的bias的绝对最小值和Jaccard loss 最接近

 

二类分割:

LovaszSoftmax_第6张图片

多类分割:

LovaszSoftmax_第7张图片

LovaszSoftmax_第8张图片

 

总结:

分割任务可以使用的loss,相比cross entropy具有更好的效果。

你可能感兴趣的:(深度学习)