pytorch中上采样的实现

因为最近在学习FCN,所以呢,有一些上采样的操作
实际上,上采样(upsampling)一般包括2种方式:

1:Resize,如双线性插值直接缩放,类似于图像缩放(这种方法在原文中提到)

2:Deconvolution,也叫Transposed Convolution,也叫做反卷积。

一:Resize

CLASS torch.nn.Upsample(size=None, scale_factor=None, mode='nearest', align_corners=None)
CLASS torch.nn.UpsamplingNearest2d(size=None, scale_factor=None)
CLASS torch.nn.UpsamplingBilinear2d(size=None, scale_factor=None)

这些方法都是可以放大张量size的,是通过各种插值的方式进行的。这些使用比较简单,就不详细说了,详细可自行百度。

二:Deconvolution
这里解释一下Deconvolution。
pytorch中反卷积的函数为:

class torch.nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0,           output_padding=0, groups=1, bias=True, dilation=1)

参数的含义如下:
• in_channels(int) – 输入信号的通道数
• out_channels(int) – 卷积产生的通道数
• kerner_size(int or tuple) - 卷积核的大小
• stride(int or tuple,optional) - 卷积步长,即要将输入扩大的倍数。
• padding(int or tuple, optional) - 输入的每一条边补充0的层数,高宽都增加2*padding
• output_padding(int or tuple, optional) - 输出边补充0的层数,高宽都增加padding
• groups(int, optional) – 从输入通道到输出通道的阻塞连接数
• bias(bool, optional) - 如果bias=True,添加偏置
• dilation(int or tuple, optional) – 卷积核元素之间的间距
对于每一条边输入输出的尺寸的公式如下:
在这里插入图片描述

你可能感兴趣的:(PyTorch,pytorch,上采样,卷积神经网络)