pytorch 反卷积ConvTranspose2d

pytorch 反卷积ConvTranspose2d

文章目录

  • pytorch 反卷积ConvTranspose2d


引入nn.convTranspose2d



nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0, output_padding=0, groups=1, bias=True, dilation=1)
#in_channels(int) – 输入信号的通道数
#out_channels(int) – 卷积产生的通道数
#kerner_size(int or tuple) - 卷积核的大小
#stride(int or tuple,optional) - 卷积步长,即要将输入扩大的倍数。
#padding(int or tuple, optional) - 输入的每一条边补充0的层数,高宽都增加2*padding
#output_padding(int or tuple, optional) - 输出边补充0的层数,高宽都增加padding
#groups(int, optional) – 从输入通道到输出通道的阻塞连接数
#bias(bool, optional) - 如果bias=True,添加偏置
#dilation(int or tuple, optional) – 卷积核元素之间的间距

in_channels与out_channels 作用和正常卷积一样

我们需要重点关注的是kerner_size(int or tuple) K 和 stride S 以及padding 和 output_padding

Stride 在反卷积中可以理解为输入元素的间距,如输入图像为5252,stride 为2 就变为每个元素之间有(S-1=2-1=1)个间距,变成(52+51)(52+51)大小,即103*103

padding 和kerner_size结合使用,即总的padding=K-P-1,如K=2,P=0,则padding为K-P-1=1
反卷积中S恒为1
然后计算方式就和卷积一样的了(可以这样认为)

如:

from torch import nn
import torch

up = nn.ConvTranspose2d(1, 64, kernel_size=2 , stride=2)
x = torch.rand(size=(8, 1, 52, 52))

out = up(x)
print(out.shape)

h’=(H-K+2P)/S +1=((52+51)-2+2*(2-0-1))/1+1=104

up = nn.ConvTranspose2d(1, 64, kernel_size=3 , stride=2)
x = torch.rand(size=(8, 1, 52, 52))

out = up(x)
print(out.shape)

h’=(H-K+2P)/S +1=((52+51)-3+2*(3-0-1))/1+1=105

你可能感兴趣的:(计算机视觉与深度学习,pytorch,人工智能,python)