声明:本文大部分搬运自【机器学习】详解 转置卷积 (Transpose Convolution)
感谢博主花与人间事同,本人只是在博主原创文章上做补充以及添加一些自己的理解。
通常,对图像进行多次卷积运算后,特征图的尺寸会不断缩小。而对于某些特定任务 (如图像分割和图像生成等),需将图像恢复到原尺寸再操作。这个将图像由小分辨率映射到大分辨率的尺寸恢复操作,称为上采样 (Upsample),如下图所示:
上采样方法有很多,详见【图像处理】详解 最近邻插值、线性插值、双线性插值、双三次插值。然而,这些上采样方法都是基于人们的先验经验来设计的,规则固定且不可学习,在很多场景中效果并不理想。因此,我们希望神经网络自己学习如何更好地插值,即接下来要介绍的转置卷积。
曾经,转置卷积也被称为反卷积(Deconvolution)。与传统的上采样方法相比,转置卷积的上采样方式并非预设的插值方法,而是同标准卷积一样,具有可学习的参数,可通过网络学习来获取最优的上采样方式。
转置卷积在某些特定领域具有广泛应用,比如:
标准卷积的运算操作其实是对卷积核中的元素与输入矩阵上对应位置的元素进行逐像素的乘积并求和。然后,卷积核在输入矩阵上以步长为单位进行滑动,直到遍历完输入矩阵的所有位置。
假设,输入是一个 4×4 矩阵,使用 3×3 的标准卷积进行计算,同时令 padding=0,stride=1。最终输出结果应是一个 2×2 矩阵,如图 2 所示:
在上例中,输入矩阵右上角 3×3 范围的值 (黄色 2 3 4) 会影响输出矩阵右上角的值 (黄色 27),这其实也对应了标准卷积中感受野的概念。所以,可以说 3×3 标准卷积核 建立了 输入矩阵中 9 个值 到 输出矩阵中 1 个值 的映射关系。
当然,从信息论的角度上看,常规卷积操作是不可逆的,所以转置卷积并不是通过输出矩阵和卷积核计算原始输入矩阵,而是计算得到保持了相对位置关系的矩阵。
也就是说转置卷积是卷积的一个逆向过程,可以恢复卷积前的输入尺寸,而不是恢复原始值。
定义一个 4×4 输入矩阵 input:
再定义一个 3×3 标准卷积核 kernel:
设步长 stride=1、填充 padding=0,可得 2×2 输出矩阵 output:
这里开始我们换一个表达方式,将输入矩阵 input 和输出矩阵 output 展开成 16×1 列向量 X 和 4×1 列向量 Y,可分别表示为:
接着再用矩阵运算来描述标准卷积运算,设有 新卷积核矩阵 C:
经卷积运算关系推导,可得 4×16 稀疏矩阵 C:
以下用图 4 展示矩阵运算过程:
而转置卷积其实就是要对这个过程进行逆运算,即 通过 C 和 Y 得到 X:
此时, C T C^T CT即为新的 16×4 稀疏矩阵。以下通过图 5 展示转置后的卷积矩阵运算。需要注意的是,用于转置卷积的权重矩阵 C T C^T CT 不一定来自于原卷积矩阵 C C C (通常不会如此恰巧),但其形状和原卷积矩阵 C C C 的转置相同。
最后,将 16×1 的输出结果重新排序,即可通过 2×2 输入矩阵得到 4×4 输出矩阵。
这里主要想说明的是,转置卷积其实也是一种卷积,转置卷积可以等价于标准卷积。
同样,使用上文中的 3×3 卷积核矩阵 C:
输出矩阵 output 仍为:
将输出矩阵展开为 列向量 Y:
带入到上文中的转置卷积计算公式,则转置卷积的计算结果为:
这其实等价于 先填充 padding=2 的输入矩阵 input:
然后,将标准卷积核 kernel朝上翻转,再朝左翻转,得到转置标准卷积核 kernel:
以一个 2x2 的标准卷积核为例,操作的图示如下,右下角是我们标准卷积核。标准卷积核内不同的颜色代表值不同。根据 1 ,我们先沿着水平红色的轴将卷积核向上翻转,再根据 2 ,沿着竖直红色的轴朝左翻转,得到转置标准卷积核。
根据上面的方法,同理我们可以得到 3x3 的转置标准卷积核 kernel:
最后,在 填零的输入矩阵 input 上使用 经转置的标准卷积核 kernel 执行 标准卷积运算,如图 6 所示:
这里我们定义stride=1的普通卷积运算为标准卷积运算
更一般地,对于卷积核尺寸 kernel size = k,步长 stride = s = 1,填充 padding = p = 0 的转置卷积,其 等价的标准卷积 在原尺寸为 i ′ i' i′ 的输入矩阵上进行运算,输出特征图的尺寸 o ′ o' o′ 为:
至于为什么等于上面的关系式,下面会解释,这里我们先复习一下普通卷积的输入与输出尺寸的关系
设 k e r n e l = k , s t r i d e = s , p a d d i n g = p kernel=k,stride=s,padding=p kernel=k,stride=s,padding=p , 输入尺寸为 i i i , 输出尺寸为 o o o , 则有
o = ⌊ i − k + 2 p s ⌋ + 1 o=\lfloor \frac{i-k+2p}{s} \rfloor+1 o=⌊si−k+2p⌋+1
后面我们在利用这个公式的时候,一般忽略公式中的向下取整,因为等价成标准卷积时有stride=1,不存在不整除的情况
即 kernel size = k,步长 stride = s = 1,填充 padding = p = 0 的转置卷积(注意这里的k、s、p都是针对转置卷积的)等价于这样的标准卷积:输入矩阵 input 在卷积运算前,需先进行 p a d d i n g ′ = k − 1 padding' = k-1 padding′=k−1 的填充,得到尺寸 i ′ ′ = i ′ + 2 ( k − 1 ) i'' = i' + 2(k-1) i′′=i′+2(k−1)。
因此,转置卷积输出尺寸可以由标准卷积输入输出尺寸公式推算出来,根据标准卷积输入输出尺寸计算公式可得 (等价的标准卷积的步长 s ′ = 1 s' = 1 s′=1,因为padding已经在 i ′ ′ i'' i′′内进行了,所以下面公式的 p = 0 p=0 p=0):
到这里我们已经可以知道公式是怎么来的了,这里再简单总结一下,根据矩阵 C T y ′ C^Ty' CTy′ ,转置卷积可以等价为标准卷积。我们需要根据转置卷积的参数k、s、p等先对输入进行填充,然后将转置卷积核进行两次翻转,最后做stride=1的标准卷积。因此我们可以根据标准卷积输入输出尺寸的公式计算出转置卷积的输入输出尺寸关系公式。
在实际中,我们大多数时候会使用 stride>1 的转置卷积,从而获得较大的上采样倍率。
如下,令输入尺寸为 5 × 5 5×5 5×5,标准卷积核同上 k e r n e l s i z e = k = 3 kernel size = k = 3 kernelsize=k=3,步长 s t r i d e = s = 2 stride = s = 2 stride=s=2,填充 p a d d i n g = p = 0 padding = p = 0 padding=p=0,标准卷积运算后,输出矩阵尺寸为 2 × 2 2×2 2×2:
此处,转换后的稀疏矩阵尺寸变为 25×4,由于矩阵太大这里不展开进行罗列。最终转置卷积的结果为:
此时,等价于 输入矩阵同时添加了 空洞 和 填充,再由转置的标准卷积核进行运算,过程如图 7 所示:
更一般地,对于卷积核尺寸 k e r n e l s i z e = k kernel size = k kernelsize=k,步长 s t r i d e = s > 1 stride = s > 1 stride=s>1,填充 p a d d i n g = p = 0 padding = p = 0 padding=p=0 的转置卷积,其 等价的标准卷积 在原尺寸为 i ′ i' i′ 的输入矩阵上进行运算,输出特征图的尺寸 o ′ o' o′ 为:
即卷积核尺寸 k e r n e l s i z e = k kernel size = k kernelsize=k,步长 s t r i d e = s > 1 stride = s > 1 stride=s>1,填充 p a d d i n g = p = 0 padding = p = 0 padding=p=0 的转置卷积等价于这样的标准卷积:输入矩阵 input 在卷积运算前,需先进行 p a d d i n g ′ = k − 1 padding' = k-1 padding′=k−1 的填充;然后,相邻元素间的空洞数为 s − 1 s-1 s−1,共有 i ′ − 1 i' - 1 i′−1 组空洞需插入;从而,实际尺寸为 i ′ ′ = i ′ + 2 ( k − 1 ) + ( i ′ − 1 ) × ( s − 1 ) = s × ( i ′ − 1 ) + 2 k − 1 i'' = i' + 2(k-1) + (i' -1) \times (s-1) = s \times (i' - 1) + 2k - 1 i′′=i′+2(k−1)+(i′−1)×(s−1)=s×(i′−1)+2k−1。
因此,根据标准卷积输入输出尺寸计算公式得 (等价的标准卷积的步长 s ′ = 1 s' = 1 s′=1,因为padding已经在 i ′ ′ i'' i′′内进行了,所以下面公式的 p = 0 p=0 p=0):
可见,通过控制步长 s t r i d e = s stride = s stride=s 的大小可以控制上采样的倍率。
我们来讨论更一般的情况,这里我直接给出结论。
k e r n e l s i z e = k kernel size = k kernelsize=k,步长 s t r i d e = s stride = s stride=s,填充 p a d d i n g = p padding = p padding=p 的转置卷积,等价于这样的标准卷积:输入矩阵 input 在卷积运算前,需先进行 p a d d i n g ′ = k − p − 1 padding' = k-p-1 padding′=k−p−1 的填充;然后,相邻元素间的空洞数为 s − 1 s-1 s−1,共有 i ′ − 1 i' - 1 i′−1 组空洞需插入;从而,实际尺寸为 i ′ ′ = i ′ + 2 ( k − p − 1 ) + ( i ′ − 1 ) × ( s − 1 ) = s × ( i ′ − 1 ) + 2 k − 1 − 2 p i'' = i' + 2(k-p-1) + (i' -1) \times (s-1) = s \times (i' - 1) + 2k - 1 -2p i′′=i′+2(k−p−1)+(i′−1)×(s−1)=s×(i′−1)+2k−1−2p。
因此,根据标准卷积输入输出尺寸计算公式得 (等价的标准卷积的步长 s ′ = 1 s' = 1 s′=1,因为padding已经在 i ′ ′ i'' i′′内进行了,所以下面公式的 p = 0 p=0 p=0):
o ′ = i ′ ′ − k + 2 p s ′ + 1 = s ( i ′ − 1 ) + 2 k − 1 − k + 1 − 2 p = s ( i ′ − 1 ) + k − 2 p o'=\frac{i''-k+2p}{s'}+1=s(i'-1)+2k-1-k+1-2p=s(i'-1)+k-2p o′=s′i′′−k+2p+1=s(i′−1)+2k−1−k+1−2p=s(i′−1)+k−2p
再回忆下标准卷积输入输出尺寸的公式:
o = ⌊ i − k + 2 p s ⌋ + 1 o=\lfloor \frac{i-k+2p}{s} \rfloor+1 o=⌊si−k+2p⌋+1
不考虑向下取整,我们根据输出 o o o反过来计算输入 i i i:
i = s ( o − 1 ) + k − 2 p i=s(o-1)+k-2p i=s(o−1)+k−2p
有没有发现,我们最后就得到了一般情况下的转置卷积输入输出尺寸关系公式。
我们可以用转置卷积来上采样,而 转置卷积的权值是可学习的,所以无需一个预定义的插值方法。
尽管它被称为转置卷积,但这并不意味着我们取某个已有的卷积矩阵并使用转置后的版本。
可以用卷积来模拟转置卷积。通过在输入矩阵的值间插入零值 (以及周围填零) 上采样输入矩阵,然后进行常规卷积就会产生与转置卷积相同的效果。你可能会发现一些文章用这种方式解释了转置卷积。但是,由于需要在常规卷积前对输入进行上采样,所以效率较低。
注意:矩阵中的实际权值不一定来自原始卷积矩阵。重要的是权重的排布是由卷积矩阵的转置得来的。
注意:转置卷积会导致生成图像中出现 网格/棋盘效应 (checkerboard artifacts),因此后续也存在许多针对该问题的改进工作。