你真的了解深度学习中的上采样吗?

 

本文同步发表在公众号(happyGirl的异想世界)以及知乎(链接https://www.zhihu.com/question/328891283/answer/1604072340)

导读

不论是语义分割、目标检测还是三维重建等模型,都需要将提取到的高层特征进行放大,此时就需要对feature map进行上采样(也有一些文章称之为升采样,是一个意思,本文均用上采样。) 上采样一些常见的方法有:近邻插值(nearest interpolation)、双线性插值(bilinear interpolation),双三次插值(Bicubic interpolation),反卷积(Transposed Convolution),反池化(Unpooling)。本文对这些方法进行了总结,如有描述不当,欢迎批评指正。

你真的了解深度学习中的上采样吗?_第1张图片

一、插值方法

1.1 最近邻插值

最近邻插值法(nearest neighbor interpolation)又称零阶插值,将离待插值最近的已知值赋值给待插值。如图所示,最近邻插值法会直接只算输出像素映射到输入图像坐标系下的点u和近邻四点(n1,n2,n3,n4)之间的距离,取距离u最近的像素点的颜色值(或灰度值)赋给u。计算公式:

其中g(x',y')为输出图像中坐标为(x',y')的像素点的颜色值(或灰度值),f(x,y)为输入图像中坐标为(x,y)的像素点的颜色值(或灰度值),(x,y)为输出图像上的坐标(x',y')映射到输入图像坐标系下的坐标。int(x)为取整运算。你真的了解深度学习中的上采样吗?_第2张图片上图效果是最近邻法的计算过程示意图,最近邻不需要计算只需要寻找,所以速度最快,但是新图像局部破坏了原图的渐变关系。

1.2 单线性插值

已知中P1点和P2点,坐标分别为(x1, y1)、(x2, y2),要计算 [x1, x2] 区间内某一位置 x 在直线上的y值。

你真的了解深度学习中的上采样吗?_第3张图片

根据两点求一条直线可知:你真的了解深度学习中的上采样吗?_第4张图片整理后得:你真的了解深度学习中的上采样吗?_第5张图片y1与y2分别代表原图像中的像素值,公式可改写为:你真的了解深度学习中的上采样吗?_第6张图片

1.3 双线性插值

双线性插值(bilinear interpolation)又称一阶插值,根据离待插值最近的个已知值来计算待插值,每个已知值的权重由距离待插值距离决定,距离越近权重越大。
双线性插值是分别在两个方向计算了共3次单线性插值,如图所示,先在x方向求2次单线性插值,获得R1(x, y1)、R2(x, y2)两个临时点,再在y方向计算1次单线性插值得出P(x, y)(实际上调换2次轴的方向先y后x也是一样的结果)。

你真的了解深度学习中的上采样吗?_第7张图片

1.4 双三次插值

双三次插值(bicubic interpolation)也有一些文章会翻译为三线性插值,本文统一同双三次插值。其根据离待插值最近的个已知值来计算待插值,每个已知值的权重由距离待插值距离决定,距离越近权重越大。
双三次插值通过下式进行计算:

或者用一种更加紧凑的形式,

计算系数  的过程依赖于插值数据的特性。如果已知插值函数的导数,常用的方法就是使用四个顶点的高度以及每个顶点的三个导数。一阶导数 与  表示与方向的表面斜率,二阶相互导数表示同时在与方向的斜率。这些值可以通过分别连续对与向量取微分得到。对于网格单元的每个顶点,将局部坐标(0,0, 1,0, 0,1 和 1,1) 带入这些方程,再解这16个方程。

1.5 各种插值方式的区别与联系

下图来源于wikipedia中词条Bicubic interpolation的插图,感觉还是很生动形象的。

你真的了解深度学习中的上采样吗?_第8张图片

二、反卷积

反卷积(DeConv)又叫转置卷积(TransposeConv)(更规范的表述),是一种特殊的卷积,常用于实现特征图(Feature Maps)的上采样。采用矩阵乘法的方式考虑卷积的前向和反向过程,分别使用和来相乘,而反卷积的前向和反向过程分别使用和来相乘。

关于卷积和反卷积的一些计算原理,小编觉得《A guide to convolution arithmetic for deep learning》写得非常清洗(链接:https://arxiv.org/pdf/1603.07285.pdf)
接下来我们将解读反卷积的计算原理,首先我们简单描述一下卷积的计算原理。

2.1 卷积的计算

假设有一个的输入input feature,使用一个的卷积核进行卷积操作,stride=1,padding=0,那么我们可以得到一个的矩阵,如下面所示:

你真的了解深度学习中的上采样吗?_第9张图片

接下来我们将以矩阵乘法的方式来描述的卷积运算,

将input feature 展开成列向量

将kernel展开成稀疏矩阵

计算,并将输出的矩阵reshape成2x2的矩阵,得到与之前相同的结果。

反卷积则通过来恢复到原始的输入的shape,故称之为转置卷积。

2.2 反卷积的计算

正如前文所说,反卷积是一种特殊的卷积,总是可以使用一种卷积来模拟反卷积的过程。然而该方式将引入许多‘0’的行和‘0’的列,导致实现上非常的低效。卷积前向过程会有padding、stride、kernel等参数,我们将通过这些参数来找到与反卷积等价的前向卷积的参数。

理解反卷积的计算过程一个核心是连接模式(Connectivity pattern),两个关键是1)zero padding;2)stride < 1。这两种方式均可以实现从低分辨率到高分辨率的映射。

首先是zero padding,通过考虑反卷积的连接模式(connectivity pattern)来考虑应该如何padding。请看Figure 4.1中,卷积过程(绿色->蓝色),从4x4的输入得到2x2的输出。现在通过转置卷积过程(蓝色->绿色)将2x2的输入恢复到4x4的输出。那应该padding多少呢?轮到我们的连接模式出场了。考虑卷积过程中,由kernel size,padding,stride决定Green[0, 0]只贡献到了Blue[0, 0]。因此在反卷积过程中,通过padding=2,stride=1来保证连接模式,即Green[0, 0]只从Blue[0, 0]中恢复信息。

你真的了解深度学习中的上采样吗?_第10张图片

然后是stride < 1,当卷积过程中的stride > 1时,即需要stride < 1来保证原来的连接模式以及从低分辨率到高分辨率的映射。如图Figure 4.5中,原来的卷积stride=2,因此在转置卷积过程中需要stride=1/2,由于stride是正整数,因此通过在输入特征图中(蓝色)进行'0'行和'0'列的插入,约束stride=1来等价得到转置卷积需要的stride=1/2。'0'行和'0'列插入的数量一个如何设置呢?假设原始卷积过程的stride=s,现在转置卷积过程中需要stride=1/s。那么我们插入s-1个'0'行或者0'列',并约束stride=1,那么我们得到的等价的stride=1/s。直观的理解,插入'0'行或者'0'列后,stride=1需要移动原先的s倍才能遇到插入前的那个像素点,因此等价于stride=1/s

你真的了解深度学习中的上采样吗?_第11张图片

2.3 不同情况下的反卷积

卷积的情况很多:不同padding、stride、kernel size,其对应反卷积的操作也不尽相同,下面我们分情况列举

2.3.1 无padding,步长为1的卷积操作的反卷积

你真的了解深度学习中的上采样吗?_第12张图片

假定输入图片大小为4x4,卷积核大小为3,步长为1,无padding,即

其对应反卷积则是在:

的情况下补0达到输出图片维度为4x4的目的。

根据connectivity pattern原理以及上文提及的第一个关键点zero padding,在输入图片上padding=2即可,如图Figure 4.1所示

可以总结下:

对于k = k, s = 1, p = 1的卷积来说,其反卷积等同于s_de = 1, k_de = k , p_de = k - 1的卷积,其输出大小为:

2.3.2 有padding,步长为1的卷积操作的反卷积

你真的了解深度学习中的上采样吗?_第13张图片

对于

的卷积,其反卷积如图Figure 4.2所示

同样的,根据connectivity pattern的zero padding 关键,进行zero padding。总结:

对于k = k, s = 1, p = p的卷积来说,其反卷积等同于s_de = 1, k_de = k , p_de = k-p-1的卷积,其输出大小为:

2.3.3 same padding的反卷积

你真的了解深度学习中的上采样吗?_第14张图片

对于k = 2n+1, s = 1, p = 的卷积来说,其反卷积等同于s_de = 1, k_de = k , p_de = p的卷积,其输出大小为:

图Figure4.3是i = 5, k = 3, p = 1的一个例子

2.3.4 完全padding的反卷积

你真的了解深度学习中的上采样吗?_第15张图片

对于s = 1, k = k, p = k -1 的卷积来说,其反卷积等同于s_de = 1, k_de = k , p_de = 0的卷积,其输出大小为:

图Figure4.4是i = 5, k = 3, p = 2的一个例子

2.3.5 无padding,步长不为1的卷积操作的反卷积

你真的了解深度学习中的上采样吗?_第16张图片

对于步长大于1的卷积操作来说,根据connectivity pattern原理以及前文的stride<1关键点描述,其反卷积需要在输入图片之间插0。如图Figure 4.5展示了i = 5, k = 3, s = 2的卷积操作的反卷积。

对于s = s, k = k, p = 0, 且i-k 必须是s的整数倍的卷积来说,其反卷积等同于先把输入图片每个值扩s-1个0,然后s_de = 1, k_de = k , p_de = k-1的卷积,其输出大小为:

2.3.6 有padding,步长不为1的卷积操作的反卷积

你真的了解深度学习中的上采样吗?_第17张图片

对于步长大于1的卷积操作来说,又有padding,根据connectivity pattern原理以及前文的zero padding和stride<1两个关键点,其反卷积需要在输入图片之间插0,和zero padding。如图Figure 4.6展示了i = 5, k = 3, s = 2, p = 1的卷积操作的反卷积过程。

对于s = s, k = k, p = p, 且i+2p-k 必须是s的整数倍的卷积来说,其反卷积等同于先把输入图片每个值间插入s-1个0,然后s_de = 1, k_de = k , p_de = k-p-1的卷积,其输出大小为:

2.3.7 更通用的表述方式

引入变量来统一各种情况,尤其是在stride不能被(i+2p-k)整除的情况下,将padding a个'0'行或'0'列在输入特征图的right和bottom侧。

你真的了解深度学习中的上采样吗?_第18张图片

如Figure 4.7中展示了不能被整除的情况,通过额外的padding来解决,公式总结如下:

2.4 反卷积的棋盘格效应分析

2.4.1 什么是反卷积的棋盘效应

反卷积会产生棋盘效应一直被人所诟病。当我们仔细的看神经网络生成的图片时,我们常常会看到一些棋盘格样式的瑕疵。这种棋盘格瑕疵在强烈色彩的图片中会尤为凸显。

你真的了解深度学习中的上采样吗?_第19张图片

2.4.2 为何会产生棋盘效应

当我们用神经网络生成图片时,我们会从低分辨率和高层次的描述中构建它们。这使得网络可以向粗略的图片中填充细节。
我们可以使用反卷积实现从低分辨率到高分辨率,允许模型用小图中的每一个点来绘制更大的一块正方形。

不幸的是,反卷积很容易有不均匀的重叠,特别是当核尺寸不能被步长整除的时候,反卷积会有不均匀的重叠。虽然理论上神经网络可以仔细的学习权重参数来避免产生这种瑕疵,但是事实上神经网络不能完全避免这种情况的发生。deconv2.jpeg你真的了解深度学习中的上采样吗?_第20张图片

这种重叠的样式体现在两个维度上。两个坐标轴上不均匀的重叠相乘,得到了类似棋盘格一样不同大小的特性。
不均匀的重叠在二维的情况下会更严重。因为当两种模式相乘,不均匀的模式会被平方。比如,在一维的情况下,一个步长为2,尺寸为3的反卷积输出数量为输入的两倍,但是在二维情况下,系数就变为了4。

如今,神经网络通常用在生成图像的时候通常用多层反卷积,通过不断的迭代从低像素图片构建高像素图片。尽管这些堆叠的反卷积可以在一定程度上消除棋盘效应,但他们经常复合,在不同尺度上产生这种瑕疵。

你真的了解深度学习中的上采样吗?_第21张图片

2.4.3 如何改善棋盘效应

为了改善棋盘效应,一些模型会在最后一层加上步长为1的反卷积,他们确实在减弱瑕疵方面有一定的效果,可以消除频率整除其大小的棋盘格效应,也可以减少其他频率小于尺寸的瑕疵,但是依然无法完全消除棋盘效应。

理论上,我们的模型可以仔细地写入不均匀重叠的位置,使得其均匀写入,达到平衡。

你真的了解深度学习中的上采样吗?_第22张图片

​这种平衡的操作的实现是很困难的,特别是当多个通道相互影响的时候。避免棋盘格瑕疵会很大程度上限制过滤器,牺牲模型的容量。
实际上神经网络很难完全避免这些问题,不仅仅是不均匀重叠的模型不能避免这种问题,均匀重叠的模型也会学习产生同样的瑕疵的卷积核。尽管不是像不均匀重叠的默认行为,对于均匀重叠的反卷积仍然是很容易产生瑕疵的。

你真的了解深度学习中的上采样吗?_第23张图片

完全避免棋盘格效应对于过滤器来说仍然是一个很严重的限制,这里可能有很多因素在起作用。比如说,在生成对抗网络中,再好的情况下,反卷积也是脆弱的,就算很小心的调整尺寸的大小,生成器、梯度的原理导致其依然很容易表达瑕疵,反卷积不生成瑕疵几乎是不太可能的。

有没有对于棋盘格效应更有抵抗能力的上采样方法呢?

2.4.4 更好的上采样

方法之一是确保反卷积核的大小可以被步长整除,从而避免重叠问题。这等价于最近成功用于图像超分辨率解析的技术“子像素卷积”(sub-pixel convolution) (Shi, et al., 2016b)。尽管这种方法有效,但反卷积仍然容易产生棋盘效应。

另一种方法是将上采样分离为较高分辨率的卷积到计算特征。例如,可以调整图像大小(使用最近邻居插值或双线性插值),然后进行卷积层,类似的方法有用在图像超分辨率(例如,Dong,et al。,2015)上。

也可以结合缩放卷积。反卷积与缩放卷积(resize-convolution)方法都是线性操作,可以用矩阵去解释。对于每个输出窗口,反卷积操作的输入唯一,缩放卷积会用集中权重的方式来抑制高频瑕疵。

三、反池化

反池化(unpooling),也有一些文章会翻译为上池化,总之都是一个意思。
Unpooling通常是卷积过程中max pooling的逆操作。这是论文《Visualizing and Understanding Convolutional Networks》中提出的思想。(论文链接 https://arxiv.org/abs/1311.2901) 反池化是池化的逆操作,是无法通过池化的结果还原出全部的原始数据。因为池化的过程就只保留了主要信息,舍去部分信息。如果想从池化后的这些主要信息恢复出全部信息,则存在信息缺失,这时只能通过补位来实现最大程度的信息完整。
池化有两种:最大池化和平均池化,其反池化也需要与其对应。

3.1 平均池化和反平均池化

首先还原成原来的大小,然后将池化结果中的每个值都填入其对应原始数据区域中相应位置即可。平均池化和反平均池化的过程如下:

你真的了解深度学习中的上采样吗?_第24张图片

3.2 最大池化和反最大池化

要求在池化过程中记录最大激活值的坐标位置,然后在反池化时,只把池化过程中最大激活值所在位置坐标值激活,其他的值设置为0.当然,这个过程只是一种近似。因为在池化过程中,除了最大值的位置,其他的值也是不为0的。
最大池化和反最大池化的过程如下:

你真的了解深度学习中的上采样吗?_第25张图片

参考资料:

https://distill.pub/2016/deconv-checkerboard/
https://zhuanlan.zhihu.com/p/41427866
https://zhuanlan.zhihu.com/p/110754637
https://zh.wikipedia.org/wiki/%E5%8F%8C%E4%B8%89%E6%AC%A1%E6%8F%92%E5%80%BC
https://blog.csdn.net/chengqiuming/article/details/80300284
https://arxiv.org/pdf/1603.07285.pdf

 

你可能感兴趣的:(深度学习)