DeepLab v1、v2、v3、v3+

传统语义分割面临的两大问题:1、下采样问题。2、空间信息不敏感。DeepLab结合了深度卷积神经网络、概率图模型、空洞卷积、多尺度预测等方法,改进语义分割的效果。

1、 DeepLab v1
论文: Semantic image segmentation with deep convolutional nets and fully connected CRFs

该论文使用了空洞卷积、提出了空间金字塔池化(ASPP)、使用了全连接的条件随机场。

2、 DeepLab v2
论文: Semantic Image Segmentiation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs

对DeepLab v1进行了较小的改进。加入了多尺度,基于空洞卷积的空间金字塔结构(ASPP)。

3、DeepLab v3
论文:Rethinking Atrous Convolution for Semantic Image Segmentation

依然在空洞卷积上做文章,改进了ASPP结构。

4、DeepLab v3+
论文:Encoder-Decoder with atrous separable convolution for semantic image segmentation

引入了decoder和Xception来提高网络性能。

你可能感兴趣的:(脑肿瘤分割)