pytorch使用-自动微分

pytorch使用-自动微分

  • 一、自动微分
  • 二、Tensor自动微分
  • 三、backward 反向传播


一、自动微分

在整个Pytorch框架中,所有的神经网络本质上都是一个autograd package(自动求导工具包),autograd package提供了一个对Tensors上所有的操作进行自动微分的功能.

以前的pytorch使用Variable来作为自动求导的类型。但是较新版本将tensor和variable合并了,Tensor的数据结构如下:
pytorch使用-自动微分_第1张图片
Tensor 主要包含三个属性:
.
data:保存Tensor数据。
grad:保存data对应的梯度,grad也是个Tensor,它和data的形状一样。
grad_fn:指向一个Function对象,这个Function用来反向传播计算输入的梯度,

二、Tensor自动微分

当 requires_grad 设置为True,为Tensor 增加梯度:

x = torch.ones(2, 2)
print(x)

y = torch.ones(2, 2, requires_grad=True)
print(y)

pytorch使用-自动微分_第2张图片
当进行运算时,grad_fn会记录当前操作:

x = torch.ones(2, 2, requires_grad=True)
print(x)

y = x + 2
print(y)

pytorch使用-自动微分_第3张图片

.requires_grad_ () 原地增加梯度

y = torch.full([2, 2], 3, dtype=torch.float32)

# y 增加梯度
y.requires_grad_(True)
print(y)

z = y * y * 3
out = z.mean()
print(z)
print(out)

pytorch使用-自动微分_第4张图片

三、backward 反向传播

a = torch.randn(2, 3, requires_grad=True)  # 创建一个张量
b = 3 * a
print(b)

# 给 loss.backward() 指定传递给后向的参数维度:torch.ones_like(b)
b.backward(torch.ones_like(b))  # 自动计算所有梯度
print(a.grad)

pytorch使用-自动微分_第5张图片

with torch.no_grad(): 关闭梯度更新

with torch.no_grad():
    a = torch.randn(2, 3, requires_grad=True)  # 创建一个张量
    b = 3 * a
    print(b.requires_grad)

    # 给 loss.backward() 指定传递给后向的参数维度:torch.ones_like(b)
    b.backward(torch.ones_like(b))  # 自动计算所有梯度
    # print(a.grad)

pytorch使用-自动微分_第6张图片
.detach() 删除单个tensor的梯度

a = torch.randn(2, 3, requires_grad=True)  # 创建一个张量
b = 3 * a
print(b)

c = b.detach()
print(c)

pytorch使用-自动微分_第7张图片

你可能感兴趣的:(pytorch,pytorch)