PyTorch教程-1:PyTorch中的Tensor基础

笔者PyTorch的全部简单教程请访问:https://www.jianshu.com/nb/48831659

PyTorch教程-1:PyTorch中的Tensor基础

首先,引入PyTorch的模块:

import torch

设置运算资源

使用 torch.cuda.is_available() 来判断设备上的GPU是否可用,如果可用则返回True,使用 torch.device() 则可以参数指定计算资源:

  • 参数为"cpu"表示使用CPU计算

  • 参数为"cuda"表示使用GPU计算,默认会使用第一块GPU,即"cuda:0"

  • 对于多GPU的设备,可以通过设置"cuda:N"来指定使用第几块GPU,第一块GPU是"cuda:0"

    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    
    print(device)
    

    cuda
    

创建张量(tensors)

Pytorch中的基本数据类型是tensors(张量),和numpy中的ndarrays是非常相似的,而且可以互相转换,只是numpy中的多维数组只能在CPU上进行运算,而tensor则是PyTorch中设计的一种可以用于GPU高速运算的数据类型。

和numpy相似,PyTorch中也有很多方法来创建张量,这些方法的统一的几个常用参数为:

  • 前N个参数依次传入整数:张量的维度
  • dtype:数据类型,默认为torch.float32
    参数 数据类型
    torch.int 32位整数(等同于torch.int32)
    torch.int8, torch.int16, torch.int32, torch.int64 8位、16位、32位、64位整数
    torch.float 32位浮点数(等同于torch.float32)
    torch.float16, torch.float32, torch.float64 16位、32位、64位浮点数
    torch.double 64位浮点数(等同于torch.float64)
  • device:张量的目标存储设备,默认为CPU

创建张量的常用方法有:

  • torch.tensor:直接从数据创建,比如可以传入(多维)list

  • torch.empty:创建一个空的tensor

  • torch.rand:创建一个0-1之间随机数的tensor

  • torch.ones:创建全1的tensor

  • torch.zeros:创建全0的tensor

    一些例子:

    x = torch.tensor([1,2,3])
    y = torch.rand(2,2,dtype=torch.float)
    z = torch.ones(2,2,dtype=torch.int,device=device)
    print(x)
    print(y)
    print(z)
    

    tensor([1, 2, 3])
    tensor([[0.4366, 0.6651],
            [0.9753, 0.7331]])
    tensor([[1, 1],
            [1, 1]], device='cuda:0', dtype=torch.int32)
    
  • torch.full:这个方法和上述方法拥有不同的参数设置,其将前N个用于指定维数的参数换成:第一个参数为tuple指定维数,第二个参数为指定的值,创建一个该维度大小的全是指定值的tensor,但是同样有dtypedevice等参数

    x=torch.full((2,3),1.2,dtype=torch.float)
    print(x)
    

    tensor([[1.2000, 1.2000, 1.2000],
            [1.2000, 1.2000, 1.2000]])
    

基于已有的张量创建新的张量,可以使用new_系列的方法,和上面的方法类似,new_系列的方法在原有的方法前加上new_,是一个tensor实例的成员方法,传入的参数和上述一致,如果没有指定的参数(指dtypedevice等参数)则继承原来的张量,但是维度信息必须传入

```python
x = torch.rand(4,3,dtype=torch.float16,device=device)
y = x.new_ones(x.size(),dtype=torch.int16)
print(x)
print(y)
```

------

```
tensor([[0.5366, 0.9004, 0.8706],
        [0.9712, 0.2258, 0.4180],
        [0.7842, 0.9976, 0.4412],
        [0.5376, 0.7261, 0.4844]], device='cuda:0', dtype=torch.float16)
tensor([[1, 1, 1],
        [1, 1, 1],
        [1, 1, 1],
        [1, 1, 1]], device='cuda:0', dtype=torch.int16)
```

new_系列的方法有:

  • torch.new_tensor
  • torch.new_empty
  • torch.new_ones
  • torch.new_zeros
  • torch.new_full

张量的运算

基本运算的几种方式

张量之间的基本运算有几种不同的表达方式,这里以加法运算为例,列举一下几种不同方式,比如两个张量xy

  • 使用运算符运算:x+y

  • 使用torch的方法:torch.add(x,y)

  • 使用torch的方法时,传入out参数来设置结果的赋值对象:torch.add(x,y,out=z)

  • 使用_结尾的方法,完成类似于+=的操作:y.add_(x)

    x = torch.rand(3,2)
    y = torch.rand(3,2)
    
    z = x+y # method 1
    z = torch.add(x,y)  # method 2
    torch.add(x,y,out=z)    # method 3
    y.add_(x)   # method 4
    

常用的一些操作

一些张量的重要操作列在下边:

  • 获取张量的形状:使用 Tensor.size() 或者 Tensor.shape 获取张量的形状,返回的是一个tuple

  • 获取张量的维数:使用 Tensor.dim() 获取张量的维数

  • 切片操作:tensors的切片操作和numpy完全一致。(笔者另有一篇详细介绍关于numpy和list的索引、切片操作的文章,请移步:https://www.jianshu.com/p/dd166725a2c3)

  • 改变形状:使用Tensor.view方法可以改变一个张量的形状,使用参数 -1 表示该维度的大小取决于其他维度

    x = torch.rand(4,6)
    print(x.size())
    y = x.view(2,12)
    print(y.size())
    z = x.view(8,-1)
    print(z.size())
    

    torch.Size([4, 6])
    torch.Size([2, 12])
    torch.Size([8, 3])
    
  • 从单元素的张量提出该单独元素的值:对于只包含一个元素的Tensor,使用 Tensor.item() 获取该元素

    x = torch.rand(1)
    print(x)
    print(x.item())
    

    tensor([0.5759])
    0.5759033560752869
    

其他的操作

Tensor还有很多各种各样的操作、方法、属性等,参考完整的列表:
https://pytorch.org/docs/stable/torch.html

Tensor与其他数据类型的转换

PyTorch的Tensor与Numpy的ndarray之间的转换

假设 tensor_x 是一个Tensor,ndarray_y 是一个ndarray:

  • Tensorndarray:使用 Tensor.numpy() 将一个tensor转换成一个numpyndarray对象

    tensor_x = torch.rand(2,3)
    print(type(tensor_x))
    ndarray_y = tensor_x.numpy()
    print(type(ndarray_y))
    

    
    
    
  • ndarrayTensor:使用 torch.from_numpy(ndarray) 将一个ndarray转换成tensor

    ndarray_y = np.ones((2,3))
    print(type(ndarray_y))
    tensor_x = torch.from_numpy(ndarray_y)
    print(type(tensor_x))
    

    
    
    

PyTorch的Tensor与Python的list之间的转换

  • listTensor:使用torch.tensor或者torch.Tensor均可:

    list_a = [[1,2,3],[4,5,6]]
    tensor_x = torch.tensor(list_a)
    tensor_y = torch.Tensor(list_a)
    print(type(tensor_x))
    print(type(tensor_y))
    

    
    
    
  • Tensorlist:只能先转换成numpy数组,再通过numpy数组的tolist方法转换成list,没有直接转换的方法

    list_b = tensor_x.numpy().tolist()
    print(type(list_b))
    

    
    

将变量分配到GPU计算资源

我们已经知道如何设置计算资源,比如使用如下代码返回一个可用的设备(即优先使用GPU),如何将一个Tensor分配到对应的计算资源呢?有两种常用的方法:

  • 在创建Tensor时设置device参数将创建的变量直接发送到对应的设备,device参数默认为"cpu"

    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    x = torch.rand(4,3,device=device)
    print(x)
    

    tensor([[0.1092, 0.7485, 0.1401],
            [0.2976, 0.3415, 0.6248],
            [0.7625, 0.6632, 0.7994],
            [0.8400, 0.1557, 0.6348]], device='cuda:0')
    
  • 使用tensor.to(device)方法将该tensor发送到目标设备,to方法接收的第一个参数为一个指定目标设备的字符串,第二个参数可以设置数据类型,默认为tensor原本的数据类型

    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    x = torch.rand(4,3,device=device)
    y = x.to("cpu")
    print(y)
    print(y.device)
    z = x.to("cpu",torch.double)
    print(z)
    print(z.device)
    print(z.dtype)
    

    tensor([[0.3537, 0.3610, 0.1814],
            [0.8401, 0.1496, 0.6197],
            [0.7640, 0.5794, 0.1897],
            [0.6594, 0.3619, 0.3482]])
    cpu
    tensor([[0.3537, 0.3610, 0.1814],
            [0.8401, 0.1496, 0.6197],
            [0.7640, 0.5794, 0.1897],
            [0.6594, 0.3619, 0.3482]], dtype=torch.float64)
    cpu
    torch.float64
    

需要注意的是,两个张量之间如果发生运算,必须保证两个张量在统一运算资源下,否则会报错,所以有时需要通过上述方法进行调整。比如如下的代码验证了这一点:

x = torch.rand(3,2,device="cpu")
y = torch.rand(3,2,device="cuda")
try:
    z = x + y
except RuntimeError as e:
    print("Meet error because the two tensors aren't at the same device: \n{}".format(e))

Meet error because the two tensors aren't at the same device: 
Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!

你可能感兴趣的:(PyTorch教程-1:PyTorch中的Tensor基础)