yolov3中有一行这样的代码,在此记录一下三个函数的含义
# 例子中batch_size为整型,len(self.anchors_mask[i])=3,self.bbox_attrs=25(voc数据集),最后两个参数也均为int
prediction = input.view(batch_size, len(self.anchors_mask[i]),
self.bbox_attrs, input_height, input_width).permute(0, 1, 3, 4, 2).contiguous()
view变换维度,把原先tensor中的数据按行优先的顺序排成一个一维数据,然后按照输入参数要求,组合成其他维度的tensor。
a=torch.Tensor([[[1,2,3],[4,5,6]]]) # ——> torch.Size([1, 2, 3])
print(a.view(3,2)) # ——> torch.Size([3, 2])
#输出为:
tensor([[1., 2.],
[3., 4.],
[5., 6.]])
permute将tensor中任意维度利用索引调换。b=a.permute(2,0,1)
,permute里的参数对应的是张量a的维度索引,利用索引来对内部数据调换。a.permute(2,0,1)
:把a的最后一个维度放到最前面。
import torch
inputs = [[[1, 2 ,3], [4, 5, 6]],
[[7, 8, 9], [10, 11, 12]]]
inputs = torch.tensor(inputs)
print("inputs:", inputs, inputs.shape)
outputs = inputs.permute(0, 2, 1)
print("outputs:", outputs, outputs.shape)
输出:
inputs: tensor([[[ 1, 2, 3],
[ 4, 5, 6]],
[[ 7, 8, 9],
[10, 11, 12]]]) torch.Size([2, 2, 3])
outputs: tensor([[[ 1, 4],
[ 2, 5],
[ 3, 6]],
[[ 7, 10],
[ 8, 11],
[ 9, 12]]]) torch.Size([2, 3, 2])
细致理解Pytorch数据布局方式和内存关系可以参考链接
仅理解contiguous()函数,可以理解为一次深拷贝
当调用contiguous()时,会强制拷贝出一份tensor,让它的布局和从头创建的一模一样,但是两个tensor完全没有联系。
contiguous() → Tensor
返回一个内存连续的有相同数据的tensor,如果原tensor内存连续,则返回原tensor;
具体原因有两种说法:
1 transpose、permute等维度变换操作后,tensor在内存中不再是连续存储的,而view操作要求tensor的内存连续存储,所以需要contiguous来返回一个contiguous copy;
2 维度变换后的变量是之前变量的浅拷贝,指向同一区域,即view操作会连带原来的变量一同变形,这是不合法的,所以也会报错;---- 这个解释有部分道理,也即contiguous返回了tensor的深拷贝contiguous copy数据;
参考链接:
【view().permute().contiguous()】 Pytorch中tensor.view().permute().contiguous()函数理解 - 简书 (jianshu.com)