在图像处理领域,图像的分割主要考虑像素灰度的变化,区分不同的前后景。之前的一个系列《图像分割技术(1)》对主流算法做了概述
图像的语义分割则不仅是区分每个像素的前后景,更需要将其所属类别预测出来,属于计算机视觉领域
CNN做图像分类甚至做目标检测的效果已经被证明并广泛应用,图像语义分割本质上也可以认为是稠密的目标识别(需要预测每个像素点的类别)
传统的基于CNN的语义分割方法是:将像素周围一个小区域作为CNN输入,做训练和预测。这样做有3个问题:
- 像素区域的大小如何确定
- 存储及计算量非常大
- 像素区域的大小限制了感受野的大小,从而只能提取一些局部特征
基于此,Berkeley团队提出 Fully Convolutional Networks(FCN)方法用于图像语义分割,将图像级别的分类扩展到像素级别的分类(图1),获得 CVPR2015 的 best paper
图1. FCN实现了 end-to-end 的图像语义分割
文章《【总结】图像语义分割之FCN和CRF》 认为,发展到现在,基于深度学习的图像语义分割“通用框架已经确定”:前端 FCN(包含基于此的改进 SegNet、DeconvNet、DeepLab)+ 后端 CRF/MRF (条件随机场/马尔科夫随机场)优化
图2. 图像语义分割通用框架(摘自这里)
一句话概括就是:FCN将传统网络后面的全连接层换成了卷积层,这样网络输出不再是类别而是 heatmap;同时为了解决因为卷积和池化对图像尺寸的影响,提出使用上采样的方式恢复
以 CaffeNet(参考这篇文章)为例(图3),重点关注最后3个全连接层 FC6、FC7、FC8
这样转换后的网络输出(去掉 softmax 层)就是个二维的 heatmap(图4)
图4. 网络转换后输出由softmax的向量预测变成二维heatmap
文章采用的网络经过5次卷积+池化后,图像尺寸依次缩小了 2、4、8、16、32倍,对最后一层做32倍上采样,就可以得到与原图一样的大小
作者发现,仅对第5层做32倍反卷积(deconvolution),得到的结果不太精确。于是将第 4 层和第 3 层的输出也依次反卷积(图5)
图5. 分别做 8、16、32倍上采样,双线性插值输出3个不同尺度的结果
图6为使用上述方法在8、16、32尺度上获得的分割结果
内容参考这篇文章
1)第一个卷积层为什么需要添加 pad=100
作者提供的网络模型里收个卷积层对输入图像添加了100个像素的边界(图7)
如果不加100,到 FC6 的卷积输出为
2)反卷积层如何与crop层配合获得原图尺寸
根据卷积的尺寸计算公式
FCN 的优势在于:
- 可以接受任意大小的输入图像(没有全连接层)
- 更加高效,避免了使用邻域带来的重复计算和空间浪费的问题
其不足也很突出:
- 得到的结果还不够精细
- 没有充分考虑像素之间的关系,缺乏空间一致性
github 上作者基于 Caffe 的实现在这里
代码安装及训练见文章《图像语义分割代码实现(1)》