python实现语义分割_语义分割之全卷积网络FCN论文阅读及代码实现

今天来看一篇复古的文章,Full Convolutional Networks 即全卷积神经网络,这是 2015 年的一篇语义分割方向的文章,是一篇比较久远的开山之作。因为最近在研究语义分割方向,所以还是决定先从这个鼻祖入手,毕竟后面的文章很多都借鉴了这篇文章的思想,掌握好基础我们才能飞的更高。本篇文章分为两部分: 论文解读与代码实现。

论文解读

语义分割介绍

语义分割(Semantic Segmentation)的目的是对图像中 每一个像素点进行分类 ,与普通的分类任务只输出某个类别不同,语义分割任务输出是与 输入图像大小相同的图像 ,输出图像的每个像素对应了输入图像每个像素的类别。

网络结构

FCN 的基本结构很简单,就是全部由卷积层组成的网络。用于图像分类的网络一般结构是” 卷积-池化-卷积-池化-全连接 “,其中 卷积和全连接层 是有参数的,池化则没有参数。论文作者认为全连接层让目标的 位置信息 消失了,只保留了 语义信息 ,因此将全连接操作更换为卷积操作可以同时保留 位置信息及语义信息 ,达到给每个像素分类的目的。网络的基本结构如下:

输入图像经过卷积和池化之后,得到的 feature map 宽高相对原图缩小了数倍,例如下图中,提取特征之后”特征长方体”的宽高为原图像的 1/32,为了得到与原图大小一致的输出结果,需要对其进行上采样(upsampling),下面介绍上采样的方法之一-反卷积(图中最终输出的”厚度”是 21,因为类别数是 21,每一层可以看做是原图像中的每个像素属于某类别的概率,coding 的时候需要注意一下)。

反卷积

反卷积是上采样(unsampling) 的一种方式,论文作者在实验之后发现反卷积相较于其他上采样方式例如 bilinear upsampling 效率更高,所以采用了这种方式。

关于反卷积的解释借鉴了这一篇: medium.com/activating-… , 英文OK的小伙伴推荐看原文,讲的很通透。

先看看正向卷积,我们知道卷积操作本质就是矩阵相乘再相加。现在假设我们有一个 4×4 的矩阵,卷积核大小为 3×3,步幅为 1 且不填充,那幺其输出会是一个 2×2 的矩阵,这个过程实际是一个 多对一 的映射:

将整个卷积步骤分成四步来看是这样的过程:

从上图也可以看出,卷积操作其实是保留了位置信息的,例如输出矩阵中左上角的数字”122″就对应了原矩阵左上方的 9 个元素。 那幺如何将结果的 2×2 的矩阵”扩展”为 4×4 的矩阵呢( 一对多 的映射)。我们从另一个角度来看卷积,首先我们将卷积核展开为一行,原矩阵展开为一列:

则卷积过程的第一步:

就可以表示为上面两个展开式相乘, 整个卷积操作也可以写为下面的矩阵相乘 :

不要着急,可以细细体会一下,卷积操作确实如此。 可以看出,4×16 的卷积核矩阵与 16×1 的输入矩阵相乘,得到了 4×1 的输出矩阵,达到了多对一映射的效果,那幺将卷积核矩阵转置为 16×4 乘上输出矩阵 4×1 就可以达到一对多映射的效果,因此反卷积也叫做转置卷积 。具体过程如下:

总结来说,全卷积网络的基本结构就是” 卷积-反卷积-分类器 “,通过卷积提取位置信息及语义信息,通过反卷积上采样至原图像大小,再加上深层特征与浅层特征的融合,达到了语义分割的目的。

代码实现

自己实现了简单版本的 FCN,在一个小数据集上跑了一下,代码地址: github.com/FroyoZzz/CV… ,欢迎提问以及 star。 VGG16 网络代码,forward 返回了卷积过程中各层的输出,以便后面与反卷积的特征做融合。

class VGG(nn.Module):

def __init__(self, pretrained=True):

super(VGG, self).__init__()

# conv1 1/2

self.conv1_1 = nn.Conv2d(3, 64, kernel_size=3, padding=1)

self.relu1_1 = nn.ReLU(inplace=True)

self.conv1_2 = nn.Conv2d(64, 64, kernel_size=3, padding=1)

self.relu1_2 = nn.ReLU(inplace=True)

self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2)

# conv2 1/4

self.conv2_1 = nn.Conv2d(64, 128, kernel_size=3, padding=1)

self.relu2_1 = nn.ReLU(inplace=True)

self.conv2_2 = nn.Conv2d(128, 128, kernel_size=3, padding=1)

self.relu2_2 = nn.ReLU(inplace=True)

self.pool2 = nn.MaxPool2d(kernel_size=2, stride=2)

# conv3 1/8

self.conv3_1 = nn.Conv2d(128, 256, kernel_size=3, padding=1)

self.relu3_1 = nn.ReLU(inplace=True)

self.conv3_2 = nn.Conv2d(256, 256, kernel_size=3, padding=1)

self.relu3_2 = nn.ReLU(inplace=True)

self.conv3_3 = nn.Conv2d(256, 256, kernel_size=3, padding=1)

self.relu3_3 = nn.ReLU(inplace=True)

self.pool3 = nn.MaxPool2d(kernel_size=2, stride=2)

# conv4 1/16

self.conv4_1 = nn.Conv2d(256, 512, kernel_size=3, padding=1)

self.relu4_1 = nn.ReLU(inplace=True)

self.conv4_2 = nn.Conv2d(512, 512, kernel_size=3, padding=1)

self.relu4_2 = nn.ReLU(inplace=True)

self.conv4_3 = nn.Conv2d(512, 512, kernel_size=3, padding=1)

self.relu4_3 = nn.ReLU(inplace=True)

self.pool4 = nn.MaxPool2d(kernel_size=2, stride=2)

# conv5 1/32

self.conv5_1 = nn.Conv2d(512, 512, kernel_size=3, padding=1)

self.relu5_1 = nn.ReLU(inplace=True)

self.conv5_2 = nn.Conv2d(512, 512, kernel_size=3, padding=1)

self.relu5_2 = nn.ReLU(inplace=True)

self.conv5_3 = nn.Conv2d(512, 512, kernel_size=3, padding=1)

self.relu5_3 = nn.ReLU(inplace=True)

self.pool5 = nn.MaxPool2d(kernel_size=2, stride=2)

# load pretrained params from torchvision.models.vgg16(pretrained=True)

if pretrained:

pretrained_model = vgg16(pretrained=pretrained)

pretrained_params = pretrained_model.state_dict()

keys = list(pretrained_params.keys())

new_dict = {}

for index, key in enumerate(self.state_dict().keys()):

new_dict[key] = pretrained_params[keys[index]]

self.load_state_dict(new_dict)

def forward(self, x):

x = self.relu1_1(self.conv1_1(x))

x = self.relu1_2(self.conv1_2(x))

x = self.pool1(x)

pool1 = x

x = self.relu2_1(self.conv2_1(x))

x = self.relu2_2(self.conv2_2(x))

x = self.pool2(x)

pool2 = x

x = self.relu3_1(self.conv3_1(x))

x = self.relu3_2(self.conv3_2(x))

x = self.relu3_3(self.conv3_3(x))

x = self.pool3(x)

pool3 = x

x = self.relu4_1(self.conv4_1(x))

x = self.relu4_2(self.conv4_2(x))

x = self.relu4_3(self.conv4_3(x))

x = self.pool4(x)

pool4 = x

x = self.relu5_1(self.conv5_1(x))

x = self.relu5_2(self.conv5_2(x))

x = self.relu5_3(self.conv5_3(x))

x = self.pool5(x)

pool5 = x

return pool1, pool2, pool3, pool4, pool5

FCN 网络,结构也很简单,包含了反卷积以及与浅层信息的融合。

class FCNs(nn.Module):

def __init__(self, num_classes, backbone="vgg"):

super(FCNs, self).__init__()

self.num_classes = num_classes

if backbone == "vgg":

self.features = VGG()

# deconv1 1/16

self.deconv1 = nn.ConvTranspose2d(512, 512, kernel_size=3, stride=2, padding=1, output_padding=1)

self.bn1 = nn.BatchNorm2d(512)

self.relu1 = nn.ReLU()

# deconv1 1/8

self.deconv2 = nn.ConvTranspose2d(512, 256, kernel_size=3, stride=2, padding=1, output_padding=1)

self.bn2 = nn.BatchNorm2d(256)

self.relu2 = nn.ReLU()

# deconv1 1/4

self.deconv3 = nn.ConvTranspose2d(256, 128, kernel_size=3, stride=2, padding=1, output_padding=1)

self.bn3 = nn.BatchNorm2d(128)

self.relu3 = nn.ReLU()

# deconv1 1/2

self.deconv4 = nn.ConvTranspose2d(128, 64, kernel_size=3, stride=2, padding=1, output_padding=1)

self.bn4 = nn.BatchNorm2d(64)

self.relu4 = nn.ReLU()

# deconv1 1/1

self.deconv5 = nn.ConvTranspose2d(64, 32, kernel_size=3, stride=2, padding=1, output_padding=1)

self.bn5 = nn.BatchNorm2d(32)

self.relu5 = nn.ReLU()

self.classifier = nn.Conv2d(32, num_classes, kernel_size=1)

def forward(self, x):

features = self.features(x)

y = self.bn1(self.relu1(self.deconv1(features[4])) + features[3])

y = self.bn2(self.relu2(self.deconv2(y)) + features[2])

y = self.bn3(self.relu3(self.deconv3(y)) + features[1])

y = self.bn4(self.relu4(self.deconv4(y)) + features[0])

y = self.bn5(self.relu5(self.deconv5(y)))

y = self.classifier(y)

return y

训练,每个 epoch 会保存一个模型,默认保存在 ./models 下:

python train.py

我的训练结果,上面一行是预测值,下面一行是目标值: 5 个 epoch 时:

10 个 epoch 时:

20 个 epoch 时:

训练好的模型由于比较大我就没有传到 git 上,数据集比较小自己训练的话大概半个小时就可以训练结束,前提是有显卡,如果需要训练好的模型的话可以留言我发给你。

你可能感兴趣的:(python实现语义分割)