Pytorch是一个基于Numpy的科学计算包,向它的使用者提供了两大功能。作为Numpy的替代者,向用户提供使用GPU强大功能的能力。做为一款深度学习的平台,向用户提供最大的灵活性和速度。
Tenors张量:张量的概念类似于Numpy中的ndarray数据结构,最大的区别在于Tensor可以利用
GPU的加速功能。
from __future__ import print_function
import torch
x=torch.empty(5,3)
x=torch.rand(5,3)
x=torch.zeros(5,3,dtype=torch.long)
dtype可以设置数据类型
x=torch.tensor([[1,2],[3,4]])
x=x.new_ones(5,3,dtype=torch.double)
y=torch.rand_like(x,dtype=torch.float)
x=x.new_ones(5,3,dtype=torch.double)
x.size()
x,y尺寸相同
x+y
尺寸相同和上个方法一致
torch.add(x,y)
把结果存入result
result=torch.empty(5,3)
torch.add(x,y,out=result)
就地置换(存入x)
x.add_(y)
所有就地置换函数都有_的后缀
和numpy几乎一致
x.item()
b=x.numpy()
注意:如果对其中一个数据操作,另一个也会随之发生改变
a=np.ones(5)
b=torch.from_numpy(a)
注意:如果对其中一个数据操作,另一个也会随之发生改变
if torch.cuda.is_available():
device = torch.device("cuda")
y=torch.ones_like(x,device=device)
x=x.to(device)
z=x+y
print(z)
print(z.to("cpu",torch.double))
在整个Pytorch框架中,所有的神经网络本质上都是一个autograd pickage(自动求导工具包)。
autograd package提供了一个对Tensors上所有的操作进行自动微分的功能。
torch.Tensor是整个package中的核心类,如将属性requires_grad设置为True,它将追踪在这个类上定义的所有操作,当代码要进行反向传播的时候,直接调用backward()就可以自动计算所有的梯度.在这个Tensor上的所有梯度将被累加进属性grad中。
x = torch.ones(2, 2, requires_grad=True)
y=x+2
print(x.grad_fn)
print(y.grad_fn)
x.requires_grad_(True)
如果想终止一个Tensor在计算图中的追踪回溯,只需要执行detach()就可以将该Tensor从计算图中撤下,在未来的回溯计算中也不会再计算该Tensor。
除了detach(),如果想终止对计算图的回溯,也就是不再进行方向传播求导数的过程,也可以采用代码块的方式with torch.no_grad():, 这种方式非常适用于对模型进行预测的时候,因为预测阶段不再需要对梯度进行计算.
Function类是和Tensor类同等重要的一个核心类,它和Tensor共同构建了一个完整的类,每一个Tensor拥有一个grad_fn属性,代表引用了哪个具体的Function创建了该Tensor。
如果某个张量Tensor是用户自定义的,则其对应的grad_fn is None。