nn.ConvTranspose2d与nn.Upsample的区别

微信公众号:知识交点(机器学习成长之路)
作者:泛音

 # 有参数可以训练
nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1,
                 padding=0, output_padding=0, groups=1, bias=True,
                 dilation=1, padding_mode='zeros')
 
 # 没有参数,速度更快,采取给定策略上采样
torch.nn.Upsample(size=None, scale_factor=None, mode='nearest', align_corners=None)

torch.nn.Upsample(size=None, scale_factor=None, mode='nearest', align_corners=None)
对输入的多通道数据进行上采样
size (tuple ,optional)– 是输出矩阵大小([optional D_out], [optional H_out], W_out)的元组。
scale_factor (int / tuple of python:ints, optional) – 图像宽/高/深度的倍数
mode – (string, optional) – 上采样方法: 有nearest, linear, bilinear, bicubic and trilinear. 默认是: nearest
align_corners (bool, optional) –  如果为true,则输入和输入tensor的角点像素对齐,从而保留这些像素的像素值。 默认值: False

参考:
https://www.baidu.com/link?url=G6FxLznLjvQJStYfQ6A3vssWmPAGokgK7xIlZVcCzMGhXGtakwWXvoUFtwhxwzdvMnZAHITmDAIJnBWprTFSg0QZaKFuty0EMmY_S2uzThDzBMptRB8r7zpC-9DxZTV-&wd=&eqid=da9ba3bb0008e07d000000045d259f9e

你可能感兴趣的:(pytorch,Machine,Learning)