Autograd:自动求导

记录一下自己学 pytorch,学习的资料为 pytorch 的中文文档,传送门:https://pytorch.apachecn.org/docs/1.4/blitz/autograd_tutorial.html

# Pytorch 中,所有神经网络的核心是 autograd 包。

# autograd 包为张量上的所有操作提供了自动求导机制。
# 它是一个在运行时定义(define-by-run)的框架,这意味着反向传播是根据代码如何运行来决定的,并且每次迭代可以是不同的。
# 张量

# torch.Tensor 是这个包的核心类。
# 如果设置它的属性 .requires_grad 为 True,那么它将会追踪对于该张量的所有操作。
# 当完成计算后可以通过调用 .backward(),来自动计算所有的梯度。这个张量的所有梯度将会自动累加到 .grad 属性

# 要组织一个张量被跟踪历史,可以调用 .detach() 方法将其与计算历史分离,并组织它未来的计算记录被跟踪。

# 为了防止跟踪历史记录(和使用内存),可以将代码块包装在 with torch.no_grad(): 中。
# 在评估模型时特别有用,因为模型可能具有 requires_grad = True 的可训练的参数,但是我们不需要在此过程中对他们进行梯度计算。

# 还有一个类对于 autograd 的实现非常重要: Function。
# Tensor 和 Function 互相连接生成了一个无圈图(acyclic graph),它编码了完整的计算历史。每个张量都有一个 .grad_fn 属性,该属性引用创建 Tensor 自身的 Function (除非这个张量是用户手动创建的,
# 即这个张量的 grad_fn 是 None)
import torch
x = torch.ones(2, 2, requires_grad=True)
print(x)
#输出为:
tensor([[1., 1.],
        [1., 1.]], requires_grad=True)
# 对这个张量做一次运算:
y = x + 2
print(y)
#输出为:
tensor([[1., 1.],
        [1., 1.]], requires_grad=True)
# y 是计算的结果,所以它有 grad_fn 属性
print(y.grad_fn)
#输出为:

# 对 y 进行更多操作
z = y * y * 3
out = z.mean()

print(z, out)
#输出为:
tensor([[27., 27.],
        [27., 27.]], grad_fn=) tensor(27., grad_fn=)
# .requires_grad(...) 原地改变了现有张量的 requires_grad 标志。如果没有指定的话,默认输入的这个标志是 False。
a = torch.randn(2, 3)
a = ((a * 3) / ( a - 1))
print(a.requires_grad)
a.requires_grad_(True)
print(a.requires_grad)
b = (a * a).sum()
print(b.grad_fn)
#输出为:
False
True

# 梯度
# 现在开始进行反向传播,因为 out 是一个标量,因此 out.backward() 和 out.backward(torch.tensor(1.)) 等价
out.backward()
# 输出导数 d(out) / dx
print(x.grad)
#输出为:
tensor([[4.5000, 4.5000],
        [4.5000, 4.5000]])
x = torch.randn(3, requires_grad=True)

y = x * 2
while y.data.norm() < 1000:
  y = y * 2

print(y)
#输出为:
tensor([296.1316, 245.7761, 971.6819], grad_fn=)
# 在这种情况下,y 不再是标量。torch.autograd 不能直接计算完整的雅可比矩阵,但是如果我们只想要雅可比向量积,只需将这个向量作为参数传给 backward:
v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(v)

print(x.grad)
#输出为:
tensor([1.0240e+02, 1.0240e+03, 1.0240e-01])
# 也可以通过将代码块包装在 with torch.no_grad(): 中,来阻止 autograd 跟踪设置了 .requires_grad = True 的张量的历史记录。
print(x.requires_grad)
print((x ** 2).requires_grad)

with torch.no_grad():
  print((x ** 2).requires_grad)
#输出为:
True
True
False

你可能感兴趣的:(Autograd:自动求导)