卷积(Convolution),反卷积(Transposed Convolution),上采样(UpSample, Interpolation)

文章目录

  • 卷积(Convolution)
  • 反卷积(Transposed Convolution)
    • padding=0, stride=1
    • padding = n(n>=1), stride = 1
      • Half (same) padding
      • Full padding
    • padding=0, strides=m(m>=2)
    • padding=n(n>=1), strides=m(m>=2)
    • 最一般形式
  • 上采样(UpSample, Interpolation)

卷积(Convolution)

  卷积在我的另一篇blog中有介绍,这里不重复说明,只给出根据卷积的输入,计算输出尺寸的公式。

  设输入到卷积层的输入的size为 ( B , C i n , i H , i W , i D ) (B, C_{in}, i_{H}, i_{W}, i_{D}) (B,Cin,iH,iW,iD),分别表示Batch size,Input Channel,Input Height,Input Width,Input Depth,卷积层的卷积核尺寸Kernel_size为 ( k H , k W , k D ) (k_{H}, k_{W}, k_{D}) (kH,kW,kD),填充padding为 ( p H , p W , p D ) (p_{H}, p_{W}, p_{D}) (pH,pW,pD),步长stride为 ( s H , s W , s D ) (s_{H}, s_{W}, s_{D}) (sH,sW,sD)。则输出的size为 ( B , C o u t , o H , o W , o D ) (B, C_{out}, o_{H}, o_{W}, o_{D}) (B,Cout,oH,oW,oD),分别表示Batch size,Output Channel,Output Height,Output Width,Output Depth,则

o H = ⌊ i H + 2 ∗ p H − k H s H ⌋ + 1 o_{H} =\Big\lfloor \frac{i_{H}+2*p_{H}-k_{H}}{s_{H}}\Big\rfloor+1 oH=sHiH+2pHkH+1
o W = ⌊ i W + 2 ∗ p W − k W s W ⌋ + 1 o_{W} =\Big\lfloor \frac{i_{W}+2*p_{W}-k_{W}}{s_{W}}\Big\rfloor+1 oW=sWiW+2pWkW+1
o D = ⌊ i D + 2 ∗ p D − k D s D ⌋ + 1 o_{D} =\Big\lfloor \frac{i_{D}+2*p_{D}-k_{D}}{s_{D}}\Big\rfloor+1 oD=sDiD+2pDkD+1

其中 ⌊ ⋅ ⌋ \Big\lfloor·\Big\rfloor 表示向下取整,可以看出,H、W、D三个维度的计算是相同且独立的,其实这个公式十分好理解,对于H、W、D任何一个维度,输入网格数是 i i i,加上了padding之后,网格数变为 i + 2 p i+2p i+2p,那么 i + 2 p − k i+2p-k i+2pk就是减去一个kernel_size后的网格数,这个时候除以stride在向下取整, ⌊ i + 2 ∗ p − k s ⌋ \Big\lfloor \frac{i+2*p-k}{s}\Big\rfloor si+2pk的含义就是卷积核移动的步数,而卷积核移动的步数在加上1(加上分子减去的那个kernel_size),就是输出的网格数

  一般来说,kernel_size在H、W、D三个维度的值设定成一样的, padding、stride也同样经常设定成一样的。值得一提的是,因为这个向下取整的存在,让我们的反卷积操作变得较为复杂,因为对于不同的输入,输出可能一样,例如i=12,13,14对于k=3,s=3,p=0,其输出都是4,反卷积就需要特殊的设定,来返回成12,13或14。


反卷积(Transposed Convolution)

  在有些应用场景,例如图像分割领域,我们输入图像尺寸(H,W),经过了池化或者步长不为一的卷积层后,图像尺寸会变小为(H’,W’),但我们又想让神经网络输出同原来一样的尺寸,就需要反卷积、上采样等操作返回原来的尺寸。

  反卷积(Transposed Convolution,过去可能也叫Deconvolution,这一叫法逐渐被抛弃),也叫分数步长卷积(fractionally strided convolutions),在正向卷积中,步长一般是正整数,在反卷积的任务中,我们的目标是增大尺寸,步长就变成了分数,例如 1 2 \frac{1}{2} 21步长就对应正向卷积的步长2,在正向卷积中,我们很容易知道,步长stride=2,卷积核就平移两个像素位计算一次卷积,但是stride= 1 2 \frac{1}{2} 21,卷积核如何平移 1 2 \frac{1}{2} 21个像素位呢?

  很巧妙的,我们可以在原来相邻的两个像素位A,B之间加一位0,这样我们从位A平移到位B就需要平移两次,如果我们平移一次,就是stride= 1 2 \frac{1}{2} 21了。因此,对于正向卷积步长stride=n,反卷积就在每两个像素位之间加上n-1个0,这样平移一位就是stride= 1 n \frac{1}{n} n1了。因此分数步长卷积并不是真的步长是分数,而是通过添加若干0,一次只平移一位的方法达到分数步长的目的。

  为了解释反卷积,我们用一种比较直观的方法,利用连接模式(connectivity pattern),输入经过正向卷积层后,输出的每一个像素位,蕴含了输入的哪些像素位的信息(也就是由哪些像素位计算得到),我们认为输出的这个像素位同输入的有计算关系的像素位存在某种连接模式。

One way to understand the logic behind zero padding is to consider the connectivity pattern of the transposed convolution and use it to guide the design of the equivalent convolution.

接下来我们一步一步的看,一步一步的利用连接模式推出反卷积的计算公式。下面各图中,对于正向卷积,绿色图是是输入,蓝色图是输出,对于反卷积,蓝色图是输入,绿色图是输出,一般我们认为正向卷积和反卷积有相同的卷积核尺寸

padding=0, stride=1

  下图展示了,正向卷积参数 ( i n p u t = 4 , k e r n e l _ s i z e = 3 , s t r i d e = 1 , p a d d i n g = 0 ) (input = 4, kernel\_size = 3, stride = 1, padding = 0) (input=4,kernel_size=3,stride=1,padding=0),对应反卷积参数 ( i n p u t ′ = 2 , k e r n e l _ s i z e ′ = k e r n e l _ s i z e , s t r i d e ′ = 1 , p a d d i n g ′ = 2 ) (input' = 2, kernel\_size' = kernel\_size, stride' = 1, padding' = 2) (input=2,kernel_size=kernel_size,stride=1,padding=2),根据连接模式,正向卷积中,绿色图左上角的像素只和蓝色图左上角的像素位有连接关系,在正向卷积和反卷积有相同卷积核尺寸的前提下,在反卷积过程中,会在外围进行 p a d d i n g ′ = k e r n e l _ s i z e − 1 padding'=kernel\_size-1 padding=kernel_size1的填充,你可以验证,这样填充的反卷积,会严格满足各个像素位的连接关系,例如绿色图第一行第二个像素位,与蓝色图第一行两个像素位有连接关系。

卷积(Convolution),反卷积(Transposed Convolution),上采样(UpSample, Interpolation)_第1张图片

因此对于正向卷积 p a d d i n g = 0 , s t r i d e = 1 padding=0,stride=1 padding=0stride=1情况,反卷积 p a d d i n g ′ = k e r n e l _ s i z e − 1 , s t r d i e ′ = 1 padding'=kernel\_size-1,strdie'=1 padding=kernel_size1strdie=1,反卷积输出满足(注意第一行是正向卷积计算公式):

o u t p u t ′ = i n p u t ′ + 2 ∗ p a d d i n g ′ − k e r n e l _ s i z e + 1 = i n p u t s ′ + k e r n e l _ s i z e − 1 \begin{aligned} output' & = input'+2*padding'-kernel\_size+1 \\ & = inputs'+kernel\_size-1 \end{aligned} output=input+2paddingkernel_size+1=inputs+kernel_size1

padding = n(n>=1), stride = 1

  下图展示了,正向卷积参数 ( i n p u t = 5 , k e r n e l _ s i z e = 4 , s t r i d e = 1 , p a d d i n g = 2 ) (input = 5, kernel\_size = 4, stride = 1, padding = 2) (input=5,kernel_size=4,stride=1,padding=2),对应反卷积参数 ( i n p u t ′ = 6 , k e r n e l _ s i z e ′ = k e r n e l _ s i z e , s t r i d e ′ = 1 , p a d d i n g ′ = 1 ) (input' = 6, kernel\_size' = kernel\_size, stride' = 1, padding' = 1) (input=6,kernel_size=kernel_size,stride=1,padding=1),根据连接模式,正向卷积中,绿色图左上角的像素位和蓝色图左上角的3*3像素位有连接关系,在正向卷积和反卷积有相同卷积核尺寸的前提下,在反卷积过程中,会在外围进行 p a d d i n g ′ = k e r n e l _ s i z e − p a d d i n g − 1 padding'=kernel\_size-padding-1 padding=kernel_sizepadding1的填充,你可以验证,这样填充的反卷积,会严格满足各个像素位的连接关系,例如绿色图第一行第二个像素位,与蓝色图左上角(3行*4列)像素位有连接关系。

卷积(Convolution),反卷积(Transposed Convolution),上采样(UpSample, Interpolation)_第2张图片

因此对于正向卷积 p a d d i n g = n ( n > = 1 ) , s t r i d e = 1 padding=n(n>=1),stride=1 padding=n(n>=1)stride=1情况,反卷积 p a d d i n g ′ = k e r n e l _ s i z e − p a d d i n g − 1 , s t r d i e ′ = 1 padding'=kernel\_size-padding-1,strdie'=1 padding=kernel_sizepadding1strdie=1,反卷积输出满足(注意第一行是正向卷积计算公式):

o u t p u t ′ = i n p u t ′ + 2 ∗ p a d d i n g ′ − k e r n e l _ s i z e + 1 = i n p u t s ′ + k e r n e l _ s i z e − 2 ∗ p a d d i n g − 1 \begin{aligned} output' & = input'+2*padding'-kernel\_size+1 \\ & = inputs'+kernel\_size-2*padding-1 \end{aligned} output=input+2paddingkernel_size+1=inputs+kernel_size2padding1

Half (same) padding

  Half padding是 p a d d i n g = n , s t r i d e = 1 padding = n, stride = 1 padding=n,stride=1卷积的特例,要求卷积核尺寸为奇数 k e r n e l _ s i z e = 2 ∗ n + 1 kernel\_size=2*n+1 kernel_size=2n+1,设定 p a d d i n g = n padding=n padding=n近似为卷积核尺寸的一半,所以叫Half padding,由于在这种设定下, i n p u t _ s i z e = o u t p u t _ s i z e input\_size=output\_size input_size=output_size,所以又叫same padding,这种padding在实际应用中使用频率极高。

  下图展示了,正向卷积参数 ( i n p u t = 5 , k e r n e l _ s i z e = 3 , s t r i d e = 1 , p a d d i n g = 1 ) (input = 5, kernel\_size = 3, stride = 1, padding = 1) (input=5,kernel_size=3,stride=1,padding=1),对应反卷积参数 ( i n p u t ′ = 5 , k e r n e l _ s i z e ′ = k e r n e l _ s i z e , s t r i d e ′ = 1 , p a d d i n g ′ = 1 ) (input' = 5, kernel\_size' = kernel\_size, stride' = 1, padding' = 1) (input=5,kernel_size=kernel_size,stride=1,padding=1),根据连接模式,正向卷积中,绿色图左上角的像素只和蓝色图左上角的(2*2)像素位有连接关系,在正向卷积和反卷积有相同卷积核尺寸的前提下,在反卷积过程中,会在外围进行 p a d d i n g ′ = k e r n e l _ s i z e − p a d d i n g − 1 padding'=kernel\_size-padding-1 padding=kernel_sizepadding1的填充,你可以验证,这样填充的反卷积,会严格满足各个像素位的连接关系,例如绿色图第一行第二个像素位,与蓝色图左上角(2行*3列)像素位有连接关系。

卷积(Convolution),反卷积(Transposed Convolution),上采样(UpSample, Interpolation)_第3张图片

因此对于正向卷积 k e r n e l _ s i z e = 2 ∗ n + 1 , p a d d i n g = n ( n > = 1 ) , s t r i d e = 1 kernel\_size=2*n+1,padding=n(n>=1),stride=1 kernel_size=2n+1padding=n(n>=1)stride=1情况,反卷积 p a d d i n g ′ = k e r n e l _ s i z e − p a d d i n g − 1 , s t r d i e ′ = 1 padding'=kernel\_size-padding-1,strdie'=1 padding=kernel_sizepadding1strdie=1,反卷积输出满足(注意第一行是正向卷积计算公式):
o u t p u t ′ = i n p u t ′ + 2 ∗ p a d d i n g ′ − k e r n e l _ s i z e + 1 = i n p u t ′ \begin{aligned} output' & = input'+2*padding'-kernel\_size+1 \\ & = input' \end{aligned} output=input+2paddingkernel_size+1=input

Full padding

  Full padding是 p a d d i n g = n , s t r i d e = 1 padding = n, stride = 1 padding=n,stride=1卷积的特例,要求 p a d d i n g = k e r n e l _ s i z e − 1 padding=kernel\_size-1 padding=kernel_size1近似为卷积核尺寸,到达了padding的极限,所以叫Full padding。

  下图展示了,正向卷积参数 ( i n p u t = 5 , k e r n e l _ s i z e = 3 , s t r i d e = 1 , p a d d i n g = 2 ) (input = 5, kernel\_size = 3, stride = 1, padding = 2) (input=5,kernel_size=3,stride=1,padding=2),对应反卷积参数 ( i n p u t ′ = 7 , k e r n e l _ s i z e ′ = k e r n e l _ s i z e , s t r i d e ′ = 1 , p a d d i n g ′ = 0 ) (input' = 7, kernel\_size' = kernel\_size, stride' = 1, padding' = 0) (input=7,kernel_size=kernel_size,stride=1,padding=0),根据连接模式,正向卷积中,绿色图左上角的像素只和蓝色图左上角(3*3)像素位有连接关系,在正向卷积和反卷积有相同卷积核尺寸的前提下,在反卷积过程中,会在外围进行 p a d d i n g ′ = k e r n e l _ s i z e − p a d d i n g − 1 padding'=kernel\_size-padding-1 padding=kernel_sizepadding1的填充,你可以验证,这样填充的反卷积,会严格满足各个像素位的连接关系,例如绿色图第一行第二个像素位,与蓝色图第一行到第三行以及第二列到第四列的交集的像素位有连接关系。

卷积(Convolution),反卷积(Transposed Convolution),上采样(UpSample, Interpolation)_第4张图片

因此对于正向卷积 p a d d i n g = n ( n > = 1 ) , s t r i d e = 1 padding=n(n>=1),stride=1 padding=n(n>=1)stride=1情况,反卷积 p a d d i n g ′ = k e r n e l _ s i z e − p a d d i n g − 1 , s t r d i e ′ = 1 padding'=kernel\_size-padding-1,strdie'=1 padding=kernel_sizepadding1strdie=1,反卷积输出满足(注意第一行是正向卷积计算公式):
o u t p u t ′ = i n p u t ′ + 2 ∗ p a d d i n g ′ − k e r n e l _ s i z e + 1 = i n p u t s ′ − k e r n e l _ s i z e + 1 \begin{aligned} output' & = input'+2*padding'-kernel\_size+1 \\ & = inputs'-kernel\_size+1 \end{aligned} output=input+2paddingkernel_size+1=inputskernel_size+1

padding=0, strides=m(m>=2)

  下图展示了,正向卷积参数 ( i n p u t = 5 , k e r n e l _ s i z e = 3 , s t r i d e = 2 , p a d d i n g = 0 ) (input = 5, kernel\_size = 3, stride = 2, padding = 0) (input=5,kernel_size=3,stride=2,padding=0),对应反卷积参数 ( i n p u t ′ = 2 , k e r n e l _ s i z e ′ = k e r n e l _ s i z e , s t r i d e ′ = 1 , p a d d i n g ′ = 2 ) (input' = 2, kernel\_size' = kernel\_size, stride' = 1, padding' = 2) (input=2,kernel_size=kernel_size,stride=1,padding=2),这就需要上面讲的分数步长的膨胀原理了,根据连接模式,正向卷积中,绿色图左上角的像素只和蓝色图左上角的像素有连接关系,在正向卷积和反卷积有相同卷积核尺寸的前提下,在反卷积过程中,会在外围进行 p a d d i n g ′ = k e r n e l _ s i z e − 1 padding'=kernel\_size-1 padding=kernel_size1的填充,你可以验证,这样填充的反卷积,会严格满足各个像素位的连接关系,例如绿色图第一行第二个像素位,与蓝色图左上角的像素位有连接关系,绿色图第一行第三个像素位,与蓝色图第一行的两个像素位有连接关系。

卷积(Convolution),反卷积(Transposed Convolution),上采样(UpSample, Interpolation)_第5张图片

因此对于正向卷积 p a d d i n g = 0 , s t r i d e = m ( m > = 2 ) padding=0,stride=m(m>=2) padding=0stride=m(m>=2)情况,反卷积 p a d d i n g ′ = k e r n e l _ s i z e − 1 , s t r d i e ′ = 1 , d i l a t i o n ′ = s t r i d e − 1 padding'=kernel\_size-1,strdie'=1,dilation'=stride-1 padding=kernel_size1strdie=1dilation=stride1,反卷积输出满足(注意第一行是正向卷积计算公式,只不过加入了膨胀系数):
o u t p u t ′ = i n p u t ′ + d i l a t i o n ∗ ( i n p u t ′ − 1 ) + 2 ∗ p a d d i n g ′ − k e r n e l _ s i z e + 1 = s t r i d e ∗ ( i n p u t ′ − 1 ) + k e r n e l _ s i z e \begin{aligned} output' & = input'+dilation*(input'-1)+2*padding'-kernel\_size+1 \\ & = stride*(input'-1)+kernel\_size \end{aligned} output=input+dilation(input1)+2paddingkernel_size+1=stride(input1)+kernel_size

padding=n(n>=1), strides=m(m>=2)

  下图展示了,正向卷积参数 ( i n p u t = 5 , k e r n e l _ s i z e = 3 , s t r i d e = 2 , p a d d i n g = 1 ) (input = 5, kernel\_size = 3, stride = 2, padding = 1) (input=5,kernel_size=3,stride=2,padding=1),对应反卷积参数 ( i n p u t ′ = 3 , k e r n e l _ s i z e ′ = k e r n e l _ s i z e , s t r i d e ′ = 1 , p a d d i n g ′ = 1 ) (input' = 3, kernel\_size' = kernel\_size, stride' = 1, padding' = 1) (input=3,kernel_size=kernel_size,stride=1,padding=1),这同样需要上面讲的分数步长的膨胀原理,根据连接模式,正向卷积中,绿色图左上角的像素只和蓝色图左上角的像素位有连接关系,在正向卷积和反卷积有相同卷积核尺寸的前提下,在反卷积过程中,会在外围进行 p a d d i n g ′ = k e r n e l _ s i z e − p a d d i n g − 1 padding'=kernel\_size-padding-1 padding=kernel_sizepadding1的填充,你可以验证,这样填充的反卷积,会严格满足各个像素位的连接关系,例如绿色图第一行第二个像素位,与蓝色图第一行前两个像素位有连接关系。

卷积(Convolution),反卷积(Transposed Convolution),上采样(UpSample, Interpolation)_第6张图片

因此对于正向卷积 p a d d i n g = n ( n > = 1 ) , s t r i d e = m ( m > = 2 ) padding=n(n>=1),stride=m(m>=2) padding=n(n>=1)stride=m(m>=2)情况,反卷积 p a d d i n g ′ = k e r n e l _ s i z e − p a d d i n g − 1 , s t r d i e ′ = 1 , d i l a t i o n ′ = s t r i d e − 1 padding'=kernel\_size-padding-1,strdie'=1,dilation'=stride-1 padding=kernel_sizepadding1strdie=1dilation=stride1,反卷积输出满足(注意第一行是正向卷积计算公式,只不过加入了膨胀系数):
o u t p u t ′ = i n p u t ′ + d i l a t i o n ∗ ( i n p u t ′ − 1 ) + 2 ∗ p a d d i n g ′ − k e r n e l _ s i z e + 1 = s t r i d e ∗ ( i n p u t ′ − 1 ) + k e r n e l _ s i z e − 2 ∗ p a d d i n g \begin{aligned} output' & = input'+dilation*(input'-1)+2*padding'-kernel\_size+1 \\ & = stride*(input'-1)+kernel\_size-2*padding \end{aligned} output=input+dilation(input1)+2paddingkernel_size+1=stride(input1)+kernel_size2padding

最一般形式

  正如我们在分析正向卷积时说的,因为向下取整的关系,同样的输出尺寸可能有不同的输出尺寸,在正向卷积公式中,如果 i + 2 ∗ p − k s \frac{i+2*p-k}{s} si+2pk能够整除,我们可以利用之前讲的反卷积计算公式,此时 i = s ∗ N − 2 ∗ p + k i = s*N-2*p+k i=sN2p+k,有没有向下取整都可以。

  如果 i = s ∗ N − 2 ∗ p + k + a i = s*N-2*p+k+a i=sN2p+k+a,且整数a满足 0 < a < s 00<a<s,由于向下取整的存在,a会被截掉,在反卷积设计中,我们要想办法补上a,我们会在 i n p u t ′ input' input的最右边和最上边补上a个zero padding。

a = (i + 2p − k) mod s represents the number of zeros added to the top and right edges of the input

  下图展示了,正向卷积参数 ( i n p u t = 6 , k e r n e l _ s i z e = 3 , s t r i d e = 2 , p a d d i n g = 1 ) (input = 6, kernel\_size = 3, stride = 2, padding = 1) (input=6,kernel_size=3,stride=2,padding=1),对应反卷积参数 ( i n p u t ′ = 3 , k e r n e l _ s i z e ′ = k e r n e l _ s i z e , s t r i d e ′ = 1 , p a d d i n g ′ = 1 , a = 1 ) (input' = 3, kernel\_size' = kernel\_size, stride' = 1, padding' = 1, a=1) (input=3,kernel_size=kernel_size,stride=1,padding=1,a=1),根据连接模式,正向卷积中,绿色图左上角的像素只和蓝色图左上角的像素有连接关系,在正向卷积和反卷积有相同卷积核尺寸的前提下,在反卷积过程中,会在外围进行 p a d d i n g ′ = k e r n e l _ s i z e − p a d d i n g − 1 padding'=kernel\_size-padding-1 padding=kernel_sizepadding1的填充,你可以验证,这样填充的反卷积,会严格满足各个像素位的连接关系,例如绿色图第一行第二个像素位,与蓝色图第一行前两个像素位有连接关系,绿色图第一行最后一个像素位,只与蓝色图第一行最后一个像素位有连接关系。

卷积(Convolution),反卷积(Transposed Convolution),上采样(UpSample, Interpolation)_第7张图片

因此对于正向卷积 p a d d i n g = n ( n > = 1 ) , s t r i d e = m ( m > = 2 ) padding=n(n>=1),stride=m(m>=2) padding=n(n>=1)stride=m(m>=2)情况,反卷积 p a d d i n g ′ = k e r n e l _ s i z e − p a d d i n g − 1 , s t r d i e ′ = 1 , d i l a t i o n ′ = s t r i d e − 1 , a = ( i n p u t + 2 ∗ p a d d i n g − k e r n e l _ s i z e )   m o d   s padding'=kernel\_size-padding-1,strdie'=1,dilation'=stride-1,a=(input + 2*padding − kernel\_size)~mod~s padding=kernel_sizepadding1strdie=1dilation=stride1a=(input+2paddingkernel_size) mod s,反卷积输出满足(注意第一行是正向卷积计算公式,只不过加入了膨胀系数和额外的填充a):
o u t p u t ′ = i n p u t ′ + d i l a t i o n ∗ ( i n p u t ′ − 1 ) + 2 ∗ p a d d i n g ′ + a − k e r n e l _ s i z e + 1 = s t r i d e ∗ ( i n p u t ′ − 1 ) + k e r n e l _ s i z e − 2 ∗ p a d d i n g + a \begin{aligned} output' & = input'+dilation*(input'-1)+2*padding'+a-kernel\_size+1 \\ & =stride*(input'-1)+kernel\_size-2*padding+a \end{aligned} output=input+dilation(input1)+2padding+akernel_size+1=stride(input1)+kernel_size2padding+a


上采样(UpSample, Interpolation)

  上采样(UpSample)操作其实是一个很大的范畴,反卷积也可以属于上采样操作,但这篇blog的上采样仅仅表示插值(Interpolation),我们以pytorch的API为例,列举较为常见的双线性插值(bilinear)和最近邻插值(nearest)。

# 双线性插值
inputs = torch.FloatTensor(np.arange(4*4)).reshape(1,1,4,4)
m = nn.Upsample(scale_factor=2, mode='bilinear', align_corners=False)
upsample = m(inputs)

# 待插值输入inputs
tensor([[[[ 0.,  1.,  2.,  3.],
          [ 4.,  5.,  6.,  7.],
          [ 8.,  9., 10., 11.],
          [12., 13., 14., 15.]]]])
          
# 双线性插值结果upsample
tensor([[[[ 0.0000,  0.2500,  0.7500,  1.2500,  1.7500,  2.2500,  2.7500, 3.0000],
          [ 1.0000,  1.2500,  1.7500,  2.2500,  2.7500,  3.2500,  3.7500, 4.0000],
          [ 3.0000,  3.2500,  3.7500,  4.2500,  4.7500,  5.2500,  5.7500, 6.0000],
          [ 5.0000,  5.2500,  5.7500,  6.2500,  6.7500,  7.2500,  7.7500, 8.0000],
          [ 7.0000,  7.2500,  7.7500,  8.2500,  8.7500,  9.2500,  9.7500, 10.0000],
          [ 9.0000,  9.2500,  9.7500, 10.2500, 10.7500, 11.2500, 11.7500, 12.0000],
          [11.0000, 11.2500, 11.7500, 12.2500, 12.7500, 13.2500, 13.7500, 14.0000],
          [12.0000, 12.2500, 12.7500, 13.2500, 13.7500, 14.2500, 14.7500, 15.0000]]]])
# 最近邻插值
inputs = torch.FloatTensor(np.arange(4*4)).reshape(1,1,4,4)
m = torch.nn.Upsample(scale_factor=2, mode='nearest')
upsample = m(inputs)

# 待插值输入inputs
tensor([[[[ 0.,  1.,  2.,  3.],
          [ 4.,  5.,  6.,  7.],
          [ 8.,  9., 10., 11.],
          [12., 13., 14., 15.]]]])
          
# 最近邻插值结果upsample
tensor([[[[ 0.,  0.,  1.,  1.,  2.,  2.,  3.,  3.],
          [ 0.,  0.,  1.,  1.,  2.,  2.,  3.,  3.],
          [ 4.,  4.,  5.,  5.,  6.,  6.,  7.,  7.],
          [ 4.,  4.,  5.,  5.,  6.,  6.,  7.,  7.],
          [ 8.,  8.,  9.,  9., 10., 10., 11., 11.],
          [ 8.,  8.,  9.,  9., 10., 10., 11., 11.],
          [12., 12., 13., 13., 14., 14., 15., 15.],
          [12., 12., 13., 13., 14., 14., 15., 15.]]]])

  最近邻插值的结果很好理解,双线性插值的结果不太好理解(其实找规律还是可以知道怎么实现的,但不知道为何要这样上采样),关于双线性插值,我很想看pytorch的源代码,但貌似是C语言写得,不是很懂Cython,找不到代码文件。


参考文献:
A guide to convolution arithmetic for deep learning:https://arxiv.org/abs/1603.07285
部分卷积动图的地址:https://github.com/vdumoulin/conv_arithmetic/blob/master/README.md
pytorch:Upsample

你可能感兴趣的:(深度学习)