图像分割常用评价指标(mIoU,F1-score)_2022.05.15

        语义分割任务中的结果,可分为True Positive(TP)、False Positive(FP)、True Negative(TN)、False Negative(FN)。其中Negative指的是非物体标签的部分(一般是为除目标之外的背景信息),Positive一般指是含标签的部分信息。

TP:输入图像中含有label信息的部分被正确识别为相对应的label信息

FP:输入图像中含有背景信息的部分被错误识别为label信息

TN:输入图像中含有背景信息的部分被正确识别为相对应的背景信息

FN:输入图像中含有label信息的部分被错误识别为背景信息

       下述公式中参数的定义含义如下:k+1代表数据集定义的类别总数(包括背景类"background",通常是“0”,所以下面公式中的i和j均以“0”开头);pij表示标识为类j的像素数目总数,也就是pii表示正确识别的真正例总数(True Positive,TP),而 pijpji 则分别表示错误识别的假正例FP总数(False Positive, FP)和假反例FN总数(False Negative, FN)。

        基于PASCAL-Part数据集的模型评价指标通常是由mIoU值来判断的。mIoU值计算公式如下图:

图像分割常用评价指标(mIoU,F1-score)_2022.05.15_第1张图片

       mIoU值的公式可视化如下图所示

图像分割常用评价指标(mIoU,F1-score)_2022.05.15_第2张图片

 

       目前,基于ATR数据集的模型评价指标通常是由F1-score分数来判断的。F1-score分数是查准率P(Precision)和查全率R(Recall)的调和平均数。F1-score值计算公式如下图:

图像分割常用评价指标(mIoU,F1-score)_2022.05.15_第3张图片

       其中F1-score的核心思想就是尽可能地提高Precision和Recall,使两者之间的差异尽可能小。

 

补充:

查准率P(Precision)也可叫准确率

例子:针对模型预测的Predicted值为1的情况下,预测正确的label为1的比率:

818b4af00a044af6ae00d5d115306b99.png

查准率R(Precision)也可叫召回率

例子:针对数据集中的label为1的情况下,预测正确的label为1的比率:

da1e55929cf54779b7baf405f946d323.png

 

 

 

 

 

你可能感兴趣的:(深度学习评价指标,mIoU,F1-score,深度学习,计算机视觉)