Pytorch之经典神经网络语义分割(三) —— SegNet(Cityscapes)

由剑桥大学在2015年提出的

 

SegNet最初提出是为了解决自动驾驶或者智能机器人的图像语义分割深度网络

SegNet有两种版本,分别为SegNet与Bayesian SegNet,同时作者还根据网络的深度提供了一个basic版(浅网络)

SegNet属于一种简单的语义分割网络,比较轻量级,模型的参数量也只有29M,但是其编码解码结构的思想对后面的深度学习网络的发展有重要的影响。

 

SegNet是基于FCN,采用了FCN的encoder-decoder的架构,但是与FCN不同的是,SegNet没有使用跳跃连接结构,并且在上采样的过程中,不是使用反卷积,而是使用了unpooling的操作。

Pytorch之经典神经网络语义分割(三) —— SegNet(Cityscapes)_第1张图片

SegNet相较于FCN有了两点的改进。第一,由于unpooling不需要进行学习,所以相比于FCN,SegNet的参数数量明显下降,从而降低了计算量。第二,由于SegNet在解码器中使用那些存储的索引来对相应特征图进行去池化操作。从而保证了高频信息的完整性,但是对于较低分辨率的特征图进行unpooling时,同样会忽略像素近邻之间的信息。

Pytorch之经典神经网络语义分割(三) —— SegNet(Cityscapes)_第2张图片

 

 

 

 

 

网络实现

 

 

你可能感兴趣的:(语义分割)