根据官方文档显示,张量定义为包含单一数据类型元素的多维矩阵。
在Pytorch中,有9种CPU张量类型和9种GPU张量类型。具体类型如下图所示:
在Pytorch中,可以通过Python 列表和torch.tensor()构造函数构造一个张量。
>>> torch.tensor([[1., -1.], [1., -1.]])tensor([[ 1.0000, -1.0000], [ 1.0000, -1.0000]])>>> torch.tensor(np.array([[1, 2, 3], [4, 5, 6]]))tensor([[ 1, 2, 3], [ 4, 5, 6]])
tensor = torch.randn(2,3,4)print(tensor.type()) # 数据类型 torch.FloatTensor,是一个浮点型的张量print(tensor.size()) # 张量的shape,是个元组 torch.Size([2, 3, 4])print(tensor.dim()) # 维度的数量 3
程序中,一个好的命名可以便于其他人读懂代码,张量的命名也是如此。这样可以方便地使用维度的名字来做索引或其他操作,提高了可读性、易用性,防止程序出错,便于其他人阅读和修改。
# 在PyTorch 1.3之前,需要使用注释# Tensor[N, C, H, W]images = torch.randn(32, 3, 56, 56)images.sum(dim=1)images.select(dim=1, index=0)# PyTorch 1.3之后NCHW = [‘N’, ‘C’, ‘H’, ‘W’]images = torch.randn(32, 3, 56, 56, names=NCHW)images.sum('C')images.select('C', index=0)# 也可以这么设置tensor = torch.rand(3,4,1,2,names=('C', 'N', 'H', 'W'))# 使用align_to可以对维度方便地排序tensor = tensor.align_to('N', 'C', 'H', 'W')
在Pytorch中,FloatTensor处理速度远远快于DoubleTensor,因此默认采用FloatTensor,也可以通过转换变成其他类型的数据。
# 设置默认类型torch.set_default_tensor_type(torch.FloatTensor)# 类型转换tensor = tensor.cuda()tensor = tensor.cpu()tensor = tensor.float()tensor = tensor.long()
torch.Tensor与np.ndarray转换
除了CharTensor类型外,其他所有CPU上的张量都支持转换为numpy格式,当然也可以再转换回来。
ndarray = tensor.cpu().numpy()tensor = torch.from_numpy(ndarray).float()tensor = torch.from_numpy(ndarray.copy()).float() # If ndarray has negative stride.
torch.tensor与PIL.Image转换
在Pytorch中,张量默认采用[N, C, H, W]的顺序,并且数据范围在[0,1],有时候处理数据时需要进行转置和规范化。
# torch.Tensor -> PIL.Imageimage = PIL.Image.fromarray(torch.clamp(tensor*255, min=0, max=255).byte().permute(1,2,0).cpu().numpy())image = torchvision.transforms.functional.to_pil_image(tensor) # Equivalently way# PIL.Image -> torch.Tensorpath = r'./figure.jpg'tensor = torch.from_numpy(np.asarray(PIL.Image.open(path))).permute(2,0,1).float() / 255tensor = torchvision.transforms.functional.to_tensor(PIL.Image.open(path)) # Equivalently way
矩阵乘法
# Matrix multiplcation: (m*n) * (n*p) * -> (m*p).result = torch.mm(tensor1, tensor2)# Batch matrix multiplication: (b*m*n) * (b*n*p) -> (b*m*p)result = torch.bmm(tensor1, tensor2)# Element-wise multiplication.result = tensor1 * tensor2
计算两组数据之间的两两欧式距离
dist = torch.sqrt(torch.sum((X1[:,None,:] - X2) ** 2, dim=2))
张量形变
将卷积层输入全连接层的情况时,通常需要对张量做形变处理如.view()和.reshape()等,但是相比torch.view,torch.reshape可以自动处理输入张量不连续的情况。
tensor = torch.rand(2,3,4)shape = (6, 4)tensor = torch.reshape(tensor, shape)
打乱顺序
tensor = tensor[torch.randperm(tensor.size(0))] # 打乱第一个维度
水平翻转
Pytorch不支持tensor[::-1]这样的负步长操作,水平翻转可以通过张量索引实现。
# 假设张量的维度为[N, D, H, W].tensor = tensor[:, :, :, torch.arange(tensor.size(3) - 1, -1, -1).long()]
复制张量
# Operation | New/Shared memory | Still in computation graph |tensor.clone() # | New | Yes |tensor.detach() # | Shared | No |tensor.detach.clone() # | New | No |
张量拼接
torch.cat和torch.stack的区别在于torch.cat沿着给定的维度拼接,而torch.stack会新增一维。当参数是3个10x5的张量,torch.cat的结果是30x5的张量,而torch.stack的结果是3x10x5的张量。
tensor = torch.cat(list_of_tensors, dim=0)tensor = torch.stack(list_of_tensors, dim=0)
将整数标签转为one-hot编码
Pytorch的标记默认从0开始,转换为one-hot编码在数据处理时也经常用到。
tensor = torch.tensor([0, 2, 1, 3])N = tensor.size(0)num_classes = 4one_hot = torch.zeros(N, num_classes).long()one_hot.scatter_(dim=1, index=torch.unsqueeze(tensor, dim=1), src=torch.ones(N, num_classes).long())
得到非零元素
torch.nonzero(tensor) # index of non-zero elements,索引非零元素torch.nonzero(tensor==0) # index of zero elements,索引零元素torch.nonzero(tensor).size(0) # number of non-zero elements,非零元素的个数torch.nonzero(tensor == 0).size(0) # number of zero elements,零元素的个数
判断两个张量相等
torch.allclose(tensor1, tensor2) # float tensortorch.equal(tensor1, tensor2) # int tensor
张量扩展
将64*512的张量扩展为64*512*7*7的张量
tensor = torch.rand(64,512)torch.reshape(tensor, (64, 512, 1, 1)).expand(64, 512, 7, 7)
未完待续...
如有遗漏或在错误的地方,希望大家指出;如果还有大家认为很重要的张量操作,也麻烦大家指出,互相进步,不甚感激!