目录
一、概念
二、Tensor
1. 创建Tensor并设置属性requires_grad=True
2. Tensor运算操作
3. 复杂一点的运算
4. 使用函数requires_grad()来改变requires_grad属性
三、 梯度
1. 求解梯度
2. 中断梯度
3. 改变Tensor的数值,但不希望影响方向传播
Pytorch 提供autograd包能够能够根据输入和向前传播过程自动构建计算图,并执行反向图,本文介绍如何使用autograd包来进行自动求梯度。
autograd 包的第一个核心类是Tensor,如果将其属性 “.requires_grad” 设置为True,它将开始追踪(track)在其上的所有操作(意味着可以利用链式法则进行梯度传播)。完成计算后,调用函数“.backward()”完成所有梯度计算。此Tensor的体积将会累计到属性“.grad”中。
【注意:在y.backward()时,如果y是标量,则不需要为backward()传入任何参数,否则,需要传入一个与y同形状的Tensor。】
如果不想要被继续追踪,可以调用函数“.detech()”将Tensor从追踪记录中分离出来,这样梯度就传不过去了。此外,还可以用“with torch.no_grad()”将不想被追踪的操作代码块包裹起来。这种方法在模型评估的时候很常用,因为在评估的时候,我们不需要计算可训练参数(requires_grad=True)的梯度。
Autograde第二个重要的类Function,Tensor和Function互相结合可以构成一个记录有整个计算过程的有向无环图(DAG),每个Tensor都有一个“.grad_fu”属性,该属性即创建该Tensor的Function,也就是说,该Tensor是通过哪些运算得到的。若是,则grad_fu返回一个与这些运算相关的对象,否则为None。
x = torch.ones(2, 2, requires_grad=True)
print(x)
print(x.grad_fun)
输出:
tensor([[1., 1.],
[1., 1.]], requires_grad=True)
None
y = x + 2
print(y)
print(y.grad_fn)
输出:
tensor([[3., 3.],
[3., 3.]], grad_fn=)
【注意:x是直接创建的,所以它没有“.grad_fu”,而y是通过加法创建的,所以他有一个
像x这种直接被创建的称为叶子节点,叶子节点对应的grad_fn是None
z = y * y * 3
out = z.mean()
print(z, out)
输出:
tensor([[27., 27.],
[27., 27.]], grad_fn=) tensor(27., grad_fn=
)
a = torch.randn(2, 2) # 缺失情况下默认 requires_grad = False
a = ((a * 3) / (a - 1))
print(a.requires_grad) # False
a.requires_grad_(True)
print(a.requires_grad) # True
b = (a * a).sum()
print(b.grad_fn)
输出:
False
True
我们对以上所述的变量out 调用backward()计算梯度
out.backward() # 等价于 out.backward(torch.tensor(1.))
print(x.grad)
输出:
tensor([[4.5000, 4.5000],
[4.5000, 4.5000]])
【注意:grad属性在反向传播中是累加的,所以一般会在反向传播之前将梯度清零。】
再来看看一个中断梯度的栗子:
x = torch.tensor(1.0, requires_grad=True)
y1 = x**2
with torch.no_grad():
y2 = x**3
y3 = y1 + y2
print(x.requires_grad)
print(y1, y1.requires_grad)
print(y2, y2.requires_grad)
print(y3, y3.requires_grad)
输出:
True
tensor(1., grad_fn=) True
tensor(1.) False
tensor(2., grad_fn=) True
可以看到y2是没有grad_fn的,而且y2.requires_grad=Falsede ,然而y3是有grad_fn的。如果我们对将y3对x求梯度的话会怎么样?
y3.backward()
print(x.grad)
输出:
tensor(2.)
为什么是2呢?y3 = y1+y2 = x^2 + x^3, 当x = 1时,dy3/dx不应该是5么?实事上y2的定义被torch.no_grad()包裹,所以y2有关的梯度不会回传,只有y1有关的梯度才会被回传,即:x^2对x的梯度。
如果我们想要修改 tensor 的数值,但是⼜又不不希望被 autograd 记录(即不不会影响反向传播),那么我么可以对 tensor.data 进⾏行行操作。
x = torch.ones(1,requires_grad=True)
print(x.data) # 还是⼀一个tensor
print(x.data.requires_grad) # 但是已经是独⽴立于计算图之外
y = 2 * x
x.data *= 100 # 只改变了了值,不不会记录在计算图,所以不不会影响梯度传播
y.backward()
print(x) # 更更改data的值也会影响tensor的值
print(x.grad)
输出:
tensor([1.])
False
tensor([100.], requires_grad=True)
tensor([2.])