Pytorch中tensor.view().permute().contiguous()函数理解

Pytorch中tensor.view().permute().contiguous()函数理解

 yolov3中有一行这样的代码,在此记录一下三个函数的含义

# 例子中batch_size为整型,len(self.anchors_mask[i])=3,self.bbox_attrs=25(voc数据集),最后两个参数也均为int
prediction = input.view(batch_size, len(self.anchors_mask[i]),
                                    self.bbox_attrs, input_height, input_width).permute(0, 1, 3, 4, 2).contiguous()

 

1 view()

view变换维度,把原先tensor中的数据按行优先的顺序排成一个一维数据,然后按照输入参数要求,组合成其他维度的tensor。

a=torch.Tensor([[[1,2,3],[4,5,6]]])      #  ——>  torch.Size([1, 2, 3])
print(a.view(3,2))      #  ——>  torch.Size([3, 2])
#输出为:
tensor([[1., 2.],
        [3., 4.],
        [5., 6.]])

 

2 permute()

permute将tensor中任意维度利用索引调换。b=a.permute(2,0,1),permute里的参数对应的是张量a的维度索引,利用索引来对内部数据调换。
a.permute(2,0,1):把a的最后一个维度放到最前面。

import torch

inputs = [[[1, 2 ,3], [4, 5, 6]],
          [[7, 8, 9], [10, 11, 12]]]

inputs = torch.tensor(inputs)
print("inputs:", inputs, inputs.shape)

outputs = inputs.permute(0, 2, 1)
print("outputs:", outputs, outputs.shape)

输出:

inputs: tensor([[[ 1,  2,  3],
         [ 4,  5,  6]],

        [[ 7,  8,  9],
         [10, 11, 12]]]) torch.Size([2, 2, 3])
outputs: tensor([[[ 1,  4],
         [ 2,  5],
         [ 3,  6]],

        [[ 7, 10],
         [ 8, 11],
         [ 9, 12]]]) torch.Size([2, 3, 2])

3 contiguous()

细致理解Pytorch数据布局方式和内存关系可以参考链接
仅理解contiguous()函数,可以理解为一次深拷贝
当调用contiguous()时,会强制拷贝出一份tensor,让它的布局和从头创建的一模一样,但是两个tensor完全没有联系

 

 contiguous() → Tensor

返回一个内存连续的有相同数据的tensor,如果原tensor内存连续,则返回原tensor;

具体原因有两种说法:

1 transpose、permute等维度变换操作后,tensor在内存中不再是连续存储的,而view操作要求tensor的内存连续存储,所以需要contiguous来返回一个contiguous copy;

2 维度变换后的变量是之前变量的浅拷贝,指向同一区域,即view操作会连带原来的变量一同变形,这是不合法的,所以也会报错;---- 这个解释有部分道理,也即contiguous返回了tensor的深拷贝contiguous copy数据;

参考链接:

【view().permute().contiguous()】 Pytorch中tensor.view().permute().contiguous()函数理解 - 简书 (jianshu.com)

你可能感兴趣的:(pytorch,pytorch,人工智能,python)