PyTorch入门教程

PyTorch入门教程

以下代码是使用 PyTorch 的 Antograd(自动求导的包)以及对应的Tensor,利用自动反向求导传播来求梯度,无需手工计算梯度:

import torch
from matplotlib import pyplot as plt

# 生成训练数据,并可视化数据分布情况
torch.manual_seed(100)

# 生成 x 数据
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1)

# 生成y数据,加上噪声
y = 3 * x.pow(2) + 2 + 0.2 * torch.rand(x.size())

# 画图,把tensor数据转换成numpy数据
plt.scatter(x.numpy(), y.numpy())
plt.show()

# 初始化权重参数
# 随机初始化参数,参数w,b需要学习,故需要把requires_grad=True
w = torch.randn(1, 1, dtype=torch.float, requires_grad=True)
b = torch.zeros(1, 1, dtype=torch.float, requires_grad=True)

# 训练模型
lr = 0.001  # 学习率

for i in range(800):
    # 前向传播,并定义损失函数
    y_pred = x.pow(2).mm(w) + b
    loss = 0.5 * (y_pred-y) ** 2
    loss = loss.sum()

    # 自动计算梯度,梯度存放在grad属性中
    loss.backward()

    # 手动更新参数,需要用torch.no_grad(),使上下文环境中切断自动求导的计算
    with torch.no_grad():
        w -= lr * w.grad
        b -= lr * b.grad

        # 梯度清零
        w.grad.zero_()
        b.grad.zero_()

# 可视化训练结果
plt.plot(x.numpy(), y_pred.detach().numpy(), "r-", label='predict')
plt.scatter(x.numpy(), y.numpy(), color='blue', marker='o', label='true')
plt.xlim(-1, 1)
plt.ylim(2, 6)
plt.legend()
plt.show()
print(w, b)

PyTorch入门教程_第1张图片
参考文章:
2.7 使用PyTorch实现简单机器学习

你可能感兴趣的:(人工智能,pytorch,python,机器学习)