pytorch list转tensor_深度学习-Pytorch框架学习之张量处理篇

1. 数据类型

根据官方文档显示,张量定义为包含单一数据类型元素的多维矩阵

在Pytorch中,有9种CPU张量类型和9种GPU张量类型。具体类型如下图所示:

在Pytorch中,可以通过Python 列表和torch.tensor()构造函数构造一个张量。

>>> torch.tensor([[1., -1.], [1., -1.]])tensor([[ 1.0000, -1.0000],        [ 1.0000, -1.0000]])>>> torch.tensor(np.array([[1, 2, 3], [4, 5, 6]]))tensor([[ 1,  2,  3],        [ 4,  5,  6]])

2. 张量的基本信息

tensor = torch.randn(2,3,4)print(tensor.type())  # 数据类型  torch.FloatTensor,是一个浮点型的张量print(tensor.size())   # 张量的shape,是个元组 torch.Size([2, 3, 4])print(tensor.dim())   # 维度的数量 3

3. 张量的命名

程序中,一个好的命名可以便于其他人读懂代码,张量的命名也是如此。这样可以方便地使用维度的名字来做索引或其他操作,提高了可读性、易用性,防止程序出错,便于其他人阅读和修改。

# 在PyTorch 1.3之前,需要使用注释# Tensor[N, C, H, W]images = torch.randn(32, 3, 56, 56)images.sum(dim=1)images.select(dim=1, index=0)# PyTorch 1.3之后NCHW = [‘N’, ‘C’, ‘H’, ‘W’]images = torch.randn(32, 3, 56, 56, names=NCHW)images.sum('C')images.select('C', index=0)# 也可以这么设置tensor = torch.rand(3,4,1,2,names=('C', 'N', 'H', 'W'))# 使用align_to可以对维度方便地排序tensor = tensor.align_to('N', 'C', 'H', 'W')

4.张量数据类型转换

在Pytorch中,FloatTensor处理速度远远快于DoubleTensor,因此默认采用FloatTensor,也可以通过转换变成其他类型的数据。

# 设置默认类型torch.set_default_tensor_type(torch.FloatTensor)# 类型转换tensor = tensor.cuda()tensor = tensor.cpu()tensor = tensor.float()tensor = tensor.long()

torch.Tensor与np.ndarray转换

除了CharTensor类型外,其他所有CPU上的张量都支持转换为numpy格式,当然也可以再转换回来。

ndarray = tensor.cpu().numpy()tensor = torch.from_numpy(ndarray).float()tensor = torch.from_numpy(ndarray.copy()).float() # If ndarray has negative stride.

torch.tensor与PIL.Image转换

在Pytorch中,张量默认采用[N, C, H, W]的顺序,并且数据范围在[0,1],有时候处理数据时需要进行转置和规范化。

# torch.Tensor -> PIL.Imageimage = PIL.Image.fromarray(torch.clamp(tensor*255, min=0, max=255).byte().permute(1,2,0).cpu().numpy())image = torchvision.transforms.functional.to_pil_image(tensor)  # Equivalently way# PIL.Image -> torch.Tensorpath = r'./figure.jpg'tensor = torch.from_numpy(np.asarray(PIL.Image.open(path))).permute(2,0,1).float() / 255tensor = torchvision.transforms.functional.to_tensor(PIL.Image.open(path)) # Equivalently way

5.张量的常用操作

矩阵乘法

# Matrix multiplcation: (m*n) * (n*p) * -> (m*p).result = torch.mm(tensor1, tensor2)# Batch matrix multiplication: (b*m*n) * (b*n*p) -> (b*m*p)result = torch.bmm(tensor1, tensor2)# Element-wise multiplication.result = tensor1 * tensor2

计算两组数据之间的两两欧式距离

dist = torch.sqrt(torch.sum((X1[:,None,:] - X2) ** 2, dim=2))

张量形变

将卷积层输入全连接层的情况时,通常需要对张量做形变处理如.view()和.reshape()等,但是相比torch.view,torch.reshape可以自动处理输入张量不连续的情况。

tensor = torch.rand(2,3,4)shape = (6, 4)tensor = torch.reshape(tensor, shape)

打乱顺序

tensor = tensor[torch.randperm(tensor.size(0))]  # 打乱第一个维度

水平翻转

Pytorch不支持tensor[::-1]这样的负步长操作,水平翻转可以通过张量索引实现。

# 假设张量的维度为[N, D, H, W].tensor = tensor[:, :, :, torch.arange(tensor.size(3) - 1, -1, -1).long()]

复制张量

# Operation                 |  New/Shared memory | Still in computation graph |tensor.clone()            # |        New         |          Yes               |tensor.detach()           # |      Shared        |          No                |tensor.detach.clone()   # |        New         |          No                |

张量拼接

torch.cat和torch.stack的区别在于torch.cat沿着给定的维度拼接,而torch.stack会新增一维。当参数是3个10x5的张量,torch.cat的结果是30x5的张量,而torch.stack的结果是3x10x5的张量。

tensor = torch.cat(list_of_tensors, dim=0)tensor = torch.stack(list_of_tensors, dim=0)

将整数标签转为one-hot编码

Pytorch的标记默认从0开始,转换为one-hot编码在数据处理时也经常用到。

tensor = torch.tensor([0, 2, 1, 3])N = tensor.size(0)num_classes = 4one_hot = torch.zeros(N, num_classes).long()one_hot.scatter_(dim=1, index=torch.unsqueeze(tensor, dim=1), src=torch.ones(N, num_classes).long())

得到非零元素

torch.nonzero(tensor)               # index of non-zero elements,索引非零元素torch.nonzero(tensor==0)            # index of zero elements,索引零元素torch.nonzero(tensor).size(0)       # number of non-zero elements,非零元素的个数torch.nonzero(tensor == 0).size(0)  # number of zero elements,零元素的个数

判断两个张量相等

torch.allclose(tensor1, tensor2)  # float tensortorch.equal(tensor1, tensor2)     # int tensor

张量扩展

将64*512的张量扩展为64*512*7*7的张量

tensor = torch.rand(64,512)torch.reshape(tensor, (64, 512, 1, 1)).expand(64, 512, 7, 7)

未完待续...

如有遗漏或在错误的地方,希望大家指出;如果还有大家认为很重要的张量操作,也麻烦大家指出,互相进步,不甚感激!

你可能感兴趣的:(pytorch,list转tensor,pytorch,nonzero,pytorch,reshape,tensorflow,转张量类型为float)