语义分割之损失函数汇总

损失函数综述

收录了常规的语义分割函数

博客资源:https://blog.csdn.net/qq_22751305/article/details/107100347?spm=1001.2014.3001.5501

知乎资源:【损失函数合集】超详细的语义分割中的Loss大盘点

LovaszSoftmax

多分类时,LovaszSoftmax的效果优于CrossEntropy。详情戳here

Wassertein

多分类,若采用交叉熵损失,可考虑 Wassertein 距离 作为交叉熵损失的一个选择。

Wassertein 距离被用来衡量两个分布的相似程度,衡量了把数据从分布“p”移动成分布“q”时所需要移动的平均距离的最小值

《Severity-Aware Semantic Segmentation with Reinforced Wasserstein Training》

做法:对于每一个像素,计算其softmax输出直方图和相应one-hot标签间的wassertein距离。详情戳here

IS-Triplet loss

该方法适用于语义分割二分类。

算法思想:对于最后用于分类的特征图,作为像素的embed vector,采用度量学习的方式,使类内的embed接近,类间的embed远离。如下图所示,直接在原有语义分割模型上添加IS-Triplet loss。详情戳here

SE-loss

原文:EncNet,code:PyTorch

SE-loss用法:

在语义分割模型上增加一个分支,用二进制交叉熵损失,单独预测场景中出现的目标类别。实际训练过程中,结合语义分割的loss使用。论文解读戳here

语义分割之损失函数汇总_第1张图片

原文是增加了一个上下文编码模块(Context Encoding Module),该模块预测一组缩放因子,用于突出和类别相关的特征图。在该模块上增加一个分支,应用SE-loss,规范网络的学习方向。

语义分割之损失函数汇总_第2张图片

你可能感兴趣的:(语义分割,深度学习,算法)