PyTorch中view、permute、reshape对比

view用法

Tensor.view(*shape) → Tensor

通俗理解:
    把原先tensor中的数据按照行优先的顺序排成一个一维的数据(这里应该是因为要求地址是连续存储的),然后按照参数组合成其他维度的tensor。比如说是不管你原先的数据是[[[1,2,3],[4,5,6]]]还是[1,2,3,4,5,6],因为它们排成一维向量都是6个元素,所以只要view后面的参数一致,得到的结果都是一样的。比如,

a=torch.Tensor([[[1,2,3],[4,5,6]]])
b=torch.Tensor([1,2,3,4,5,6])

print(a.view(1,6))
print(b.view(1,6))

#输出tensor([[1., 2., 3., 4., 5., 6.]]) 

那和permute的区别呢?

再看一个例子:

import torch
import numpy    as np

a=torch.Tensor([[[1,2,3],[4,5,6]]])

view=a.view(3,2)#输入的是shape
permuted=a.permute(2,0,1) #输入的是维度dim

print(f"view函数:\n{view}\n")
print(f"permute函数:\n{permuted}\n")
'''
输出:
view函数:
tensor([[1., 2.],
        [3., 4.],
        [5., 6.]])

permute函数:
tensor([[[1., 4.]],

        [[2., 5.]],

        [[3., 6.]]])
'''

与reshape的区别

根据这篇文章,在pytorch的最新版本0.4版本中,增加了torch.reshape(),与 numpy.reshape() 的功能类似,大致相当于 tensor.contiguous().view(),这样就省去了对tensor做view()变换前,调用contiguous()的麻烦

这是因为使用view函数之前必须保证tensor是连续存取的,为什么看这里https://zhuanlan.zhihu.com/p/64551412

参考
view用法
permute用法
resize_可以在这里了解下

你可能感兴趣的:(pytorch,pytorch)