【Pytorch深度学习实践】B站up刘二大人之Linear Regression with PyTorch-代码理解与实现(4/9)

开篇几句题外话:

代码对我还是不简单,还是要花时间。我反应不过来变量之间的关系,没办法很快的想清楚这个过程。

Lecture05 —— Linear Regression With PyTorch 利用PyTorch实现线性回归模型

说在前面:

  • 这部分内容有不少更新指出:

(1)构建数据集用到了torch中的Tensor;

(2)通过创建python中的线性模型类,并实例化它,来构建模型;

(3)损失函数通过torch.nn库调用其中的MSELoss;

(4)优化器通过调用torch.optim库中的SGD实现;

(5)训练过程稍有变化,这里面第一次出现了梯度清零这个问题,用到的是优化库optim中的zero_grad()方法;

详细过程:

  • 本课程的主要任务是利用torch包的requires_grad自动求导,构建反向传播模型:
    • 导入numpymatplotlibostorch库;

    • 导入数据 x_datay_data,注意这里有变化,用到了torch中的Tensor格式,与04课程相同,所以才会出现datagrad的重要区别;

    • 创建LinearModel类模型:

      • 初始化init中,只有一个linear函数;注意要提前继承(这一步直接写,不深究);
      • 前向传播forward方法,这是把之前的前向传播函数,拿进来做了类中的一个方法,返回预测值;
    • 实例化一个模型model

    • 创建损失函数:通过调用torch.nn库中的MSELoss实现;

    • 创建优化器:通过调用torch.optim库中的SGD实现;

    • 创建两个空列表,因为后面绘图的时候要用:

    • 创建循环,开始训练:循环的次数epoch可以自定义

      • y_hat用模型model计算;
      • 损失loss用创建好的损失函数计算;
      • 先用优化器对梯度清零(重要,要清楚什么时候该清零,为什么清零,原理是什么);
      • 令损失反向传播loss.backward
      • 执行一步权重更新操作,用到的函数optimizer.step( )很奇特,这里非常关键,理解起来不容易,见下面的链接;
    • 在循环中要把计算的结果,放进之前的空列表,用于绘图;

    • 在获得了打印所需的数据列表只有,模式化地打印图像:

完整代码:

#!usr/bin/env python
# -*- coding:utf-8 _*-
"""
@author: 24_nemo
@file: 05_LinearRegressionwithPyTorch_handType.py
@time: 2022/04/08
@desc:
"""
import matplotlib.pyplot as plt
import torch

import os
os.environ['KMP_DUPLICATE_LIB_OK'] = 'True'

x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[2.0], [4.0], [6.0]])


class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel, self).__init__()
        self.linear = torch.nn.Linear(1, 1)

    def forward(self, x):
        y_hat = self.linear(x)
        return y_hat


model = LinearModel()

criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

loss_list = []
epoch_list = []

for epoch in range(1000):
    y_hat = model(x_data)
    loss = criterion(y_hat, y_data)
    print(epoch, loss.item())

    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

    epoch_list.append(epoch)
    loss_list.append(loss.item())

print('w =', model.linear.weight.item())
print('b =', model.linear.bias.item())

x_test = torch.Tensor([[4.0]])
y_test = model(x_test)

print('y_hat =', y_test.data)
print('y_hat =', y_test.item())

plt.plot(epoch_list, loss_list)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()

运行结果:

【Pytorch深度学习实践】B站up刘二大人之Linear Regression with PyTorch-代码理解与实现(4/9)_第1张图片

【Pytorch深度学习实践】B站up刘二大人之Linear Regression with PyTorch-代码理解与实现(4/9)_第2张图片

上一篇:

【Pytorch深度学习实践】B站up刘二大人之 BackPropagation-代码理解与实现(3/9)

下一篇:

【Pytorch深度学习实践】B站up刘二大人之LogisticsRegression-代码理解与实现(5/9)

目录:

【Pytorch深度学习实践】B站up刘二大人课程笔记——目录与索引(已完结)

你可能感兴趣的:(深度学习/PyTorch,Python/Pycharm,图像处理,深度学习,python,计算机视觉)