引入nn.convTranspose2d
nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1)
#in_channels(int) – 输入信号的通道数
#out_channels(int) – 卷积产生的通道数
#kerner_size(int or tuple) - 卷积核的大小
#stride(int or tuple,optional) - 卷积步长,即要将输入扩大的倍数。
#padding(int or tuple, optional) - 输入的每一条边补充0的层数,高宽都增加2*padding
#output_padding(int or tuple, optional) - 输出边补充0的层数,高宽都增加padding
#groups(int, optional) – 从输入通道到输出通道的阻塞连接数
#bias(bool, optional) - 如果bias=True,添加偏置
#dilation(int or tuple, optional) – 卷积核元素之间的间距
in_channels与out_channels 作用和正常卷积一样
我们需要重点关注的是kerner_size(int or tuple) K 和 stride S 以及padding 和 output_padding
Stride 在反卷积中可以理解为输入元素的间距,如输入图像为5252,stride 为2 就变为每个元素之间有(S-1=2-1=1)个间距,变成(52+51)(52+51)大小,即103*103
padding 和kerner_size结合使用,即总的padding=K-P-1,如K=2,P=0,则padding为K-P-1=1
反卷积中S恒为1
然后计算方式就和卷积一样的了(可以这样认为)
如:
from torch import nn
import torch
up = nn.ConvTranspose2d(1, 64, kernel_size=2 , stride=2)
x = torch.rand(size=(8, 1, 52, 52))
out = up(x)
print(out.shape)
h’=(H-K+2P)/S +1=((52+51)-2+2*(2-0-1))/1+1=104
up = nn.ConvTranspose2d(1, 64, kernel_size=3 , stride=2)
x = torch.rand(size=(8, 1, 52, 52))
out = up(x)
print(out.shape)
h’=(H-K+2P)/S +1=((52+51)-3+2*(3-0-1))/1+1=105