Model | mIoU | Global Pixel Acc | Inference on CPU (sec) | Params (M) |
---|---|---|---|---|
LR-ASPP MobileNetV3-Large | 57.9 | 91.2 | 0.3278 | 3.22 |
DeepLabV3 MobileNetV3-Large | 60.3 | 91.2 | 0.5869 | 11.03 |
FCN MobileNetV3-Large (not released) | 57.8 | 90.9 | 0.3702 | 5.05 |
DeepLabV3 ResNet50 | 66.4 | 92.4 | 6.3531 | 39.64 |
FCN ResNet50 | 60.5 | 91.4 | 5.0146 | 32.96 |
PASCAL VOC中提供了分割数据集, 数据集中的图片对应标签存储格式为PNG (如右图所示), 标签图片中记录了每一个像素所属的类别信息. 需要注意的是, 右图所展示的图片是使用调色板实现的彩色, 它本质上是一个单通道的黑白图片.
那么这样是怎么实现的呢? 我们知道, 黑白图片每个像素的范围为 0 ~ 255, 那么不同值的像素就对应不同的颜色. 比如:
这样, 不同值的像素就可以对应不同的颜色, 那么一张单通道黑白图就可以显示出彩色.
在使用Python的PIL读取灰度图时, 默认使用调色板, 即P模式.
除了上述需要明白的, 还有一些需要注意的点:
特殊颜色标注位置对应像素的值是255, 在网络训练时, Loss的计算会忽略像素值为255的地方, 这么做的原因是:
MS COCO数据集针对图像中的每一个目标都记录了多边形坐标 (polygons)
可以看到, COCO中所有目标的轮廓都用多边形坐标展示出来了, 在使用MS COCO数据集时, 我们需要将多边形信息解码为PNG图片 (所期望的P模式PNG图片).
因为COCO划分的过于详细, 所以数据集不光可以做语义分割, 还可以做实例分割.
用调色板是方便看, 不然真的用灰度图的话, 0 ~ 255, 人眼很难区分的.
P i x e l A c c u r a c y ( G l o b a l A c c ) = ∑ i n i i ∑ i t i m e a n A c c u r a c y = 1 n c l s ⋅ ∑ i n i i t i m e a n I o U = 1 n c l s ⋅ ∑ i n i i t i + ∑ j n j i − n i i \begin{aligned} & {\rm Pixel \ Accuracy (Global \ Acc)} = \frac{\sum_i n_{ii}}{\sum_i t_i} \\ & {\rm mean \ Accuracy} = \frac{1}{n_{cls}} \cdot \sum_i \frac{n_{ii}}{t_i} \\ & {\rm mean \ IoU} = \frac{1}{n_{cls}} \cdot \sum_i \frac{n_{ii}}{t_i + \sum_j n_{ji} - n_{ii}} \end{aligned} Pixel Accuracy(Global Acc)=∑iti∑iniimean Accuracy=ncls1⋅i∑tiniimean IoU=ncls1⋅i∑ti+∑jnji−niinii
其中:
因为忽略了边缘, 所以没有255的情况
针对每一个类别, 分别计算正负样本, 即可得到混淆矩阵, 如下图所示:
根据混淆矩阵就可以得到Global Accuracy (Pixel Accuracy):
P i x e l A c c u r a c y ( G l o b a l A c c ) = 16 + 3 + 16 + 12 + 8 64 ≈ 0.859 {\rm Pixel \ Accuracy (Global \ Acc)} = \frac{16 + 3 + 16 + 12 + 8}{64} \approx 0.859 Pixel Accuracy(Global Acc)=6416+3+16+12+8≈0.859
也可以根据每一个类别算出不同类别的Accuracy:
c l s 0 a c c = 16 20 c l s 1 a c c = 3 4 c l s 2 a c c = 16 16 c l s 3 a c c = 12 16 c l s 4 a c c = 8 8 \begin{aligned} & {\rm cls_0 \ acc} = \frac{16}{20} \\ & {\rm cls_1 \ acc} = \frac{3}{4} \\ & {\rm cls_2 \ acc} = \frac{16}{16} \\ & {\rm cls_3 \ acc} = \frac{12}{16} \\ & {\rm cls_4 \ acc} = \frac{8}{8} \\ \end{aligned} cls0 acc=2016cls1 acc=43cls2 acc=1616cls3 acc=1612cls4 acc=88
也就是混淆矩阵对角线上的值分别除以它们各自的数量 (标签中该类别的数量)
得到了所有类别各自的Accuracy, 也就可以得的mean Accuracy:
m e a n A c c u r a c y = 1 n c l s ⋅ ∑ i n i i t i 16 20 + 3 4 + 16 16 + 12 16 + 8 8 5 = 0.86 \begin{aligned} {\rm mean \ Accuracy} & = \frac{1}{n_{cls}} \cdot \sum_i \frac{n_{ii}}{t_i} \\ & \frac{\frac{16}{20} + \frac{3}{4} + \frac{16}{16} + \frac{12}{16} + \frac{8}{8}}{5} \\ & = 0.86 \end{aligned} mean Accuracy=ncls1⋅i∑tinii52016+43+1616+1612+88=0.86
根据公式:
m e a n I o U = 1 n c l s ⋅ ∑ i n i i t i + ∑ j n j i − n i i 预测对的该类别像素个数 预测为该类别的像素个数 + 该类别标签中的个数 ( 因该预测对的个数 ) − 预测对的该类别像素个数 \begin{aligned} {\rm mean \ IoU} & = \frac{1}{n_{cls}} \cdot \sum_i \frac{n_{ii}}{t_i + \sum_j n_{ji} - n_{ii}}\\ & \frac{预测对的该类别像素个数}{预测为该类别的像素个数 + 该类别标签中的个数(因该预测对的个数) - 预测对的该类别像素个数} \end{aligned} mean IoU=ncls1⋅i∑ti+∑jnji−niinii预测为该类别的像素个数+该类别标签中的个数(因该预测对的个数)−预测对的该类别像素个数预测对的该类别像素个数
其中:
因此, 我们就可以计算出mean IoU:
m e a n I o U c l s 0 = 16 20 + 18 − 16 m e a n I o U c l s 1 = 3 4 + 4 − 3 m e a n I o U c l s 2 = 16 16 + 18 − 16 m e a n I o U c l s 3 = 12 16 + 12 − 12 m e a n I o U c l s 4 = 8 8 + 12 − 8 \begin{aligned} & {\rm mean \ IoU}_{cls_0} = \frac{16}{20 + 18 - 16} \\ & {\rm mean \ IoU}_{cls_1} = \frac{3}{4 + 4 - 3} \\ & {\rm mean \ IoU}_{cls_2} = \frac{16}{16 + 18 - 16} \\ & {\rm mean \ IoU}_{cls_3} = \frac{12}{16 + 12 - 12} \\ & {\rm mean \ IoU}_{cls_4} = \frac{8}{8 + 12 - 8} \\ \end{aligned} mean IoUcls0=20+18−1616mean IoUcls1=4+4−33mean IoUcls2=16+18−1616mean IoUcls3=16+12−1212mean IoUcls4=8+12−88
代码地址: https://github.com/wkentaro/labelme
代码地址: https://github.com/PaddlePaddle/PaddleSeg
该标注软件是一个半自动的标注工具, 里面内置了一些预训练模型, 可以使用AI帮助我们标注.
百度的标注工具对于日常中常见的目标来说, 是极为高效的, 如果自定义数据集中的目标相对罕见, 那么EISeg和Labelme其实是差不多的.