笔者PyTorch的全部简单教程请访问:https://www.jianshu.com/nb/48831659
PyTorch教程-1:PyTorch中的Tensor基础
首先,引入PyTorch
的模块:
import torch
设置运算资源
使用 torch.cuda.is_available()
来判断设备上的GPU是否可用,如果可用则返回True
,使用 torch.device()
则可以参数指定计算资源:
参数为
"cpu"
表示使用CPU计算参数为
"cuda"
表示使用GPU计算,默认会使用第一块GPU,即"cuda:0"
-
对于多GPU的设备,可以通过设置
"cuda:N"
来指定使用第几块GPU,第一块GPU是"cuda:0"
device = torch.device("cuda" if torch.cuda.is_available() else "cpu") print(device)
cuda
创建张量(tensors)
Pytorch中的基本数据类型是tensors(张量),和numpy中的ndarrays是非常相似的,而且可以互相转换,只是numpy中的多维数组只能在CPU上进行运算,而tensor则是PyTorch中设计的一种可以用于GPU高速运算的数据类型。
和numpy相似,PyTorch中也有很多方法来创建张量,这些方法的统一的几个常用参数为:
- 前N个参数依次传入整数:张量的维度
-
dtype
:数据类型,默认为torch.float32
参数 数据类型 torch.int 32位整数(等同于torch.int32) torch.int8, torch.int16, torch.int32, torch.int64 8位、16位、32位、64位整数 torch.float 32位浮点数(等同于torch.float32) torch.float16, torch.float32, torch.float64 16位、32位、64位浮点数 torch.double 64位浮点数(等同于torch.float64) -
device
:张量的目标存储设备,默认为CPU
创建张量的常用方法有:
torch.tensor
:直接从数据创建,比如可以传入(多维)listtorch.empty
:创建一个空的tensortorch.rand
:创建一个0-1之间随机数的tensortorch.ones
:创建全1的tensor-
torch.zeros
:创建全0的tensor一些例子:
x = torch.tensor([1,2,3]) y = torch.rand(2,2,dtype=torch.float) z = torch.ones(2,2,dtype=torch.int,device=device) print(x) print(y) print(z)
tensor([1, 2, 3]) tensor([[0.4366, 0.6651], [0.9753, 0.7331]]) tensor([[1, 1], [1, 1]], device='cuda:0', dtype=torch.int32)
-
torch.full
:这个方法和上述方法拥有不同的参数设置,其将前N个用于指定维数的参数换成:第一个参数为tuple指定维数,第二个参数为指定的值,创建一个该维度大小的全是指定值的tensor,但是同样有dtype
和device
等参数x=torch.full((2,3),1.2,dtype=torch.float) print(x)
tensor([[1.2000, 1.2000, 1.2000], [1.2000, 1.2000, 1.2000]])
基于已有的张量创建新的张量,可以使用new_
系列的方法,和上面的方法类似,new_
系列的方法在原有的方法前加上new_
,是一个tensor实例的成员方法,传入的参数和上述一致,如果没有指定的参数(指dtype
、device
等参数)则继承原来的张量,但是维度信息必须传入:
```python
x = torch.rand(4,3,dtype=torch.float16,device=device)
y = x.new_ones(x.size(),dtype=torch.int16)
print(x)
print(y)
```
------
```
tensor([[0.5366, 0.9004, 0.8706],
[0.9712, 0.2258, 0.4180],
[0.7842, 0.9976, 0.4412],
[0.5376, 0.7261, 0.4844]], device='cuda:0', dtype=torch.float16)
tensor([[1, 1, 1],
[1, 1, 1],
[1, 1, 1],
[1, 1, 1]], device='cuda:0', dtype=torch.int16)
```
new_
系列的方法有:
torch.new_tensor
torch.new_empty
torch.new_ones
torch.new_zeros
torch.new_full
张量的运算
基本运算的几种方式
张量之间的基本运算有几种不同的表达方式,这里以加法运算为例,列举一下几种不同方式,比如两个张量x
和y
:
使用运算符运算:
x+y
使用torch的方法:
torch.add(x,y)
使用torch的方法时,传入
out
参数来设置结果的赋值对象:torch.add(x,y,out=z)
-
使用
_
结尾的方法,完成类似于+=
的操作:y.add_(x)
x = torch.rand(3,2) y = torch.rand(3,2) z = x+y # method 1 z = torch.add(x,y) # method 2 torch.add(x,y,out=z) # method 3 y.add_(x) # method 4
常用的一些操作
一些张量的重要操作列在下边:
获取张量的形状:使用
Tensor.size()
或者Tensor.shape
获取张量的形状,返回的是一个tuple获取张量的维数:使用
Tensor.dim()
获取张量的维数切片操作:tensors的切片操作和numpy完全一致。(笔者另有一篇详细介绍关于numpy和list的索引、切片操作的文章,请移步:https://www.jianshu.com/p/dd166725a2c3)
-
改变形状:使用
Tensor.view
方法可以改变一个张量的形状,使用参数-1
表示该维度的大小取决于其他维度x = torch.rand(4,6) print(x.size()) y = x.view(2,12) print(y.size()) z = x.view(8,-1) print(z.size())
torch.Size([4, 6]) torch.Size([2, 12]) torch.Size([8, 3])
-
从单元素的张量提出该单独元素的值:对于只包含一个元素的Tensor,使用
Tensor.item()
获取该元素x = torch.rand(1) print(x) print(x.item())
tensor([0.5759]) 0.5759033560752869
其他的操作
Tensor还有很多各种各样的操作、方法、属性等,参考完整的列表:
https://pytorch.org/docs/stable/torch.html
Tensor与其他数据类型的转换
PyTorch的Tensor与Numpy的ndarray之间的转换
假设 tensor_x
是一个Tensor,ndarray_y
是一个ndarray:
-
Tensor
转ndarray
:使用Tensor.numpy()
将一个tensor
转换成一个numpy
的ndarray
对象tensor_x = torch.rand(2,3) print(type(tensor_x)) ndarray_y = tensor_x.numpy() print(type(ndarray_y))
-
ndarray
转Tensor
:使用torch.from_numpy(ndarray)
将一个ndarray
转换成tensor
ndarray_y = np.ones((2,3)) print(type(ndarray_y)) tensor_x = torch.from_numpy(ndarray_y) print(type(tensor_x))
PyTorch的Tensor与Python的list之间的转换
-
list
转Tensor
:使用torch.tensor
或者torch.Tensor
均可:list_a = [[1,2,3],[4,5,6]] tensor_x = torch.tensor(list_a) tensor_y = torch.Tensor(list_a) print(type(tensor_x)) print(type(tensor_y))
-
Tensor
转list
:只能先转换成numpy
数组,再通过numpy
数组的tolist
方法转换成list
,没有直接转换的方法list_b = tensor_x.numpy().tolist() print(type(list_b))
将变量分配到GPU计算资源
我们已经知道如何设置计算资源,比如使用如下代码返回一个可用的设备(即优先使用GPU),如何将一个Tensor分配到对应的计算资源呢?有两种常用的方法:
-
在创建
Tensor
时设置device
参数将创建的变量直接发送到对应的设备,device
参数默认为"cpu"
:device = torch.device("cuda" if torch.cuda.is_available() else "cpu") x = torch.rand(4,3,device=device) print(x)
tensor([[0.1092, 0.7485, 0.1401], [0.2976, 0.3415, 0.6248], [0.7625, 0.6632, 0.7994], [0.8400, 0.1557, 0.6348]], device='cuda:0')
-
使用
tensor.to(device)
方法将该tensor
发送到目标设备,to
方法接收的第一个参数为一个指定目标设备的字符串,第二个参数可以设置数据类型,默认为tensor
原本的数据类型device = torch.device("cuda" if torch.cuda.is_available() else "cpu") x = torch.rand(4,3,device=device) y = x.to("cpu") print(y) print(y.device) z = x.to("cpu",torch.double) print(z) print(z.device) print(z.dtype)
tensor([[0.3537, 0.3610, 0.1814], [0.8401, 0.1496, 0.6197], [0.7640, 0.5794, 0.1897], [0.6594, 0.3619, 0.3482]]) cpu tensor([[0.3537, 0.3610, 0.1814], [0.8401, 0.1496, 0.6197], [0.7640, 0.5794, 0.1897], [0.6594, 0.3619, 0.3482]], dtype=torch.float64) cpu torch.float64
需要注意的是,两个张量之间如果发生运算,必须保证两个张量在统一运算资源下,否则会报错,所以有时需要通过上述方法进行调整。比如如下的代码验证了这一点:
x = torch.rand(3,2,device="cpu")
y = torch.rand(3,2,device="cuda")
try:
z = x + y
except RuntimeError as e:
print("Meet error because the two tensors aren't at the same device: \n{}".format(e))
Meet error because the two tensors aren't at the same device:
Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!