2019年年初,ApacheCN组织志愿者翻译了PyTorch1.0版本中文文档(github地址),同时也获得了PyTorch官方授权,我相信已经有许多人在中文文档官网上看到了。不过目前校对还缺人手,希望大家踊跃参与。之前一段时间我们和PyTorch的有关负责人Bruce Lin一直在进行邮件交流。在之后适当的时候,我们会组织志愿者进行其他有关PyTorch的项目,欢迎大家加入我们,关注我们。更希望我们的一系列工作能够对大家有所帮助。
译者:bat67
校对者:FontTian
作者: Soumith Chintala
PyTorch是一个基于python的科学计算包,主要针对两类人群:
Tensor
(张量)类似于NumPy
的ndarray
,但还可以在GPU上使用来加速计算。
from __future__ import print_function
import torch
创建一个没有初始化的5*3矩阵:
x = torch.empty(5, 3)
print(x)
输出:
tensor([[2.2391e-19, 4.5869e-41, 1.4191e-17],
[4.5869e-41, 0.0000e+00, 0.0000e+00],
[0.0000e+00, 0.0000e+00, 0.0000e+00],
[0.0000e+00, 0.0000e+00, 0.0000e+00],
[0.0000e+00, 0.0000e+00, 0.0000e+00]])
创建一个随机初始化矩阵:
x = torch.rand(5, 3)
print(x)
输出:
tensor([[0.5307, 0.9752, 0.5376],
[0.2789, 0.7219, 0.1254],
[0.6700, 0.6100, 0.3484],
[0.0922, 0.0779, 0.2446],
[0.2967, 0.9481, 0.1311]])
构造一个填满0
且数据类型为long
的矩阵:
x = torch.zeros(5, 3, dtype=torch.long)
print(x)
输出:
tensor([[0, 0, 0],
[0, 0, 0],
[0, 0, 0],
[0, 0, 0],
[0, 0, 0]])
直接从数据构造张量:
x = torch.tensor([5.5, 3])
print(x)
输出:
tensor([5.5000, 3.0000])
或者根据已有的tensor建立新的tensor。除非用户提供新的值,否则这些方法将重用输入张量的属性,例如dtype等:
x = x.new_ones(5, 3, dtype=torch.double) # new_* methods take in sizes
print(x)
x = torch.randn_like(x, dtype=torch.float) # 重载 dtype!
print(x) # 结果size一致
输出:
tensor([[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.]], dtype=torch.float64)
tensor([[ 1.6040, -0.6769, 0.0555],
[ 0.6273, 0.7683, -0.2838],
[-0.7159, -0.5566, -0.2020],
[ 0.6266, 0.3566, 1.4497],
[-0.8092, -0.6741, 0.0406]])
获取张量的形状:
print(x.size())
输出:
torch.Size([5, 3])
注意:
torch.Size
本质上还是tuple
,所以支持tuple的一切操作。
一种运算有多种语法。在下面的示例中,我们将研究加法运算。
加法:形式一
y = torch.rand(5, 3)
print(x + y)
输出:
tensor([[ 2.5541, 0.0943, 0.9835],
[ 1.4911, 1.3117, 0.5220],
[-0.0078, -0.1161, 0.6687],
[ 0.8176, 1.1179, 1.9194],
[-0.3251, -0.2236, 0.7653]])
加法:形式二
print(torch.add(x, y))
输出:
tensor([[ 2.5541, 0.0943, 0.9835],
[ 1.4911, 1.3117, 0.5220],
[-0.0078, -0.1161, 0.6687],
[ 0.8176, 1.1179, 1.9194],
[-0.3251, -0.2236, 0.7653]])
加法:给定一个输出张量作为参数
result = torch.empty(5, 3)
torch.add(x, y, out=result)
print(result)
输出:
tensor([[ 2.5541, 0.0943, 0.9835],
[ 1.4911, 1.3117, 0.5220],
[-0.0078, -0.1161, 0.6687],
[ 0.8176, 1.1179, 1.9194],
[-0.3251, -0.2236, 0.7653]])
加法:原位/原地操作(in-place)
# adds x to y
y.add_(x)
print(y)
输出:
tensor([[ 2.5541, 0.0943, 0.9835],
[ 1.4911, 1.3117, 0.5220],
[-0.0078, -0.1161, 0.6687],
[ 0.8176, 1.1179, 1.9194],
[-0.3251, -0.2236, 0.7653]])
注意:
任何一个in-place改变张量的操作后面都固定一个
_
。例如x.copy_(y)
、x.t_()
将更改x
也可以使用像标准的NumPy一样的各种索引操作:
print(x[:, 1])
输出:
tensor([-0.6769, 0.7683, -0.5566, 0.3566, -0.6741])
改变形状:如果想改变形状,可以使用torch.view
x = torch.randn(4, 4)
y = x.view(16)
z = x.view(-1, 8) # the size -1 is inferred from other dimensions
print(x.size(), y.size(), z.size())
输出:
torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])
如果是仅包含一个元素的tensor,可以使用.item()
来得到对应的python数值
x = torch.randn(1)
print(x)
print(x.item())
输出:
tensor([0.0445])
0.0445479191839695
后续阅读:
超过100种tensor的运算操作,包括转置,索引,切片,数学运算,
线性代数,随机数等,具体访问这里
将一个Torch张量转换为一个NumPy数组是轻而易举的事情,反之亦然。
Torch张量和NumPy数组将共享它们的底层内存位置,因此当一个改变时,另外也会改变。
输入:
a = torch.ones(5)
print(a)
输出:
tensor([1., 1., 1., 1., 1.])
输入:
b = a.numpy()
print(b)
输出:
[1. 1. 1. 1. 1.]
看NumPy数组是如何改变里面的值的:
a.add_(1)
print(a)
print(b)
输出:
tensor([2., 2., 2., 2., 2.])
[2. 2. 2. 2. 2.]
看改变NumPy数组是如何自动改变Torch张量的:
import numpy as np
a = np.ones(5)
b = torch.from_numpy(a)
np.add(a, 1, out=a)
print(a)
print(b)
输出:
[2. 2. 2. 2. 2.]
tensor([2., 2., 2., 2., 2.], dtype=torch.float64)
CPU上的所有张量(CharTensor除外)都支持与Numpy的相互转换。
张量可以使用.to
方法移动到任何设备(device)上:
# 当GPU可用时,我们可以运行以下代码
# 我们将使用`torch.device`来将tensor移入和移出GPU
if torch.cuda.is_available():
device = torch.device("cuda") # a CUDA device object
y = torch.ones_like(x, device=device) # 直接在GPU上创建tensor
x = x.to(device) # 或者使用`.to("cuda")`方法
z = x + y
print(z)
print(z.to("cpu", torch.double)) # `.to`也能在移动时改变dtype
输出:
tensor([1.0445], device='cuda:0')
tensor([1.0445], dtype=torch.float64)