1. 【Pytorch系列教程】 自动求梯度

目录

一、概念

         二、Tensor

1. 创建Tensor并设置属性requires_grad=True

 2. Tensor运算操作

3. 复杂一点的运算

4. 使用函数requires_grad()来改变requires_grad属性

三、 梯度

1. 求解梯度

2. 中断梯度

3. 改变Tensor的数值,但不希望影响方向传播


        

Pytorch 提供autograd包能够能够根据输入和向前传播过程自动构建计算图,并执行反向图,本文介绍如何使用autograd包来进行自动求梯度。

一、概念

        autograd 包的第一个核心类是Tensor,如果将其属性 “.requires_grad” 设置为True,它将开始追踪(track)在其上的所有操作(意味着可以利用链式法则进行梯度传播)。完成计算后,调用函数“.backward()”完成所有梯度计算。此Tensor的体积将会累计到属性“.grad”中。

     【注意:在y.backward()时,如果y是标量,则不需要为backward()传入任何参数,否则,需要传入一个与y同形状的Tensor。】

     如果不想要被继续追踪,可以调用函数“.detech()”将Tensor从追踪记录中分离出来,这样梯度就传不过去了。此外,还可以用“with torch.no_grad()”将不想被追踪的操作代码块包裹起来。这种方法在模型评估的时候很常用,因为在评估的时候,我们不需要计算可训练参数(requires_grad=True)的梯度。

     Autograde第二个重要的类Function,Tensor和Function互相结合可以构成一个记录有整个计算过程的有向无环图(DAG),每个Tensor都有一个“.grad_fu”属性,该属性即创建该Tensor的Function,也就是说,该Tensor是通过哪些运算得到的。若是,则grad_fu返回一个与这些运算相关的对象,否则为None。

二、Tensor

1. 创建Tensor并设置属性requires_grad=True

x = torch.ones(2, 2, requires_grad=True)
print(x)
print(x.grad_fun)

输出:

tensor([[1., 1.],
        [1., 1.]], requires_grad=True)
None

 2. Tensor运算操作

y = x + 2
print(y)
print(y.grad_fn)

输出:

tensor([[3., 3.],
        [3., 3.]], grad_fn=)

【注意:x是直接创建的,所以它没有“.grad_fu”,而y是通过加法创建的,所以他有一个的grad_fu】

像x这种直接被创建的称为叶子节点,叶子节点对应的grad_fn是None

3. 复杂一点的运算

z = y * y * 3
out = z.mean()
print(z, out)

输出:

tensor([[27., 27.],
        [27., 27.]], grad_fn=) tensor(27., grad_fn=
)

4. 使用函数requires_grad()来改变requires_grad属性

a = torch.randn(2, 2) # 缺失情况下默认 requires_grad = False
a = ((a * 3) / (a - 1))
print(a.requires_grad) # False
a.requires_grad_(True)
print(a.requires_grad) # True
b = (a * a).sum()
print(b.grad_fn)

输出:

False
True

三、 梯度

1. 求解梯度

  我们对以上所述的变量out 调用backward()计算梯度

out.backward() # 等价于 out.backward(torch.tensor(1.))
print(x.grad)

  输出:

tensor([[4.5000, 4.5000],
        [4.5000, 4.5000]])

【注意:grad属性在反向传播中是累加的,所以一般会在反向传播之前将梯度清零。】

2. 中断梯度

        再来看看一个中断梯度的栗子:

x = torch.tensor(1.0, requires_grad=True)
y1 = x**2
with torch.no_grad():
    y2 = x**3
y3 = y1 + y2

print(x.requires_grad)
print(y1, y1.requires_grad)
print(y2, y2.requires_grad)
print(y3, y3.requires_grad)

输出:

True
tensor(1., grad_fn=) True
tensor(1.) False
tensor(2., grad_fn=) True

可以看到y2是没有grad_fn的,而且y2.requires_grad=Falsede ,然而y3是有grad_fn的。如果我们对将y3对x求梯度的话会怎么样?

y3.backward()
print(x.grad)

输出:

tensor(2.)

为什么是2呢?y3 = y1+y2 = x^2 + x^3, 当x = 1时,dy3/dx不应该是5么?实事上y2的定义被torch.no_grad()包裹,所以y2有关的梯度不会回传,只有y1有关的梯度才会被回传,即:x^2对x的梯度。

3. 改变Tensor的数值,但不希望影响方向传播

        如果我们想要修改 tensor 的数值,但是⼜又不不希望被 autograd 记录(即不不会影响反向传播),那么我么可以对 tensor.data 进⾏行行操作。

x = torch.ones(1,requires_grad=True)
print(x.data) # 还是⼀一个tensor
print(x.data.requires_grad) # 但是已经是独⽴立于计算图之外
y = 2 * x
x.data *= 100 # 只改变了了值,不不会记录在计算图,所以不不会影响梯度传播
y.backward()
print(x) # 更更改data的值也会影响tensor的值
print(x.grad)

输出:

tensor([1.])
False
tensor([100.], requires_grad=True)
tensor([2.])

你可能感兴趣的:(Pytorch,pytorch,深度学习,神经网络)