【Pytorch深度学习实践】B站up刘二大人之LinearModel -代码理解与实现(1/9)

目录:

【Pytorch深度学习实践】B站up刘二大人课程笔记——目录与索引(已完结)

开篇几句题外话:

  • 刘二大人的课程我是从前天(4月5日)开始看的,今天看完了advanced cnn这部分,我做的也是图像,所以开始撸代码了,这次一定要理解清楚;

  • 对于刘老师的课程,我想说的是,他讲的非常透彻,不过门槛并不低,我有之前一段时间的pytorch跑通过几个github项目的基础和一些基本环境配置等基础,才能跟得上;

  • 另一方面,刘老师不仅自己理解很彻底,讲起来也很流利,同时还解开了我一直以来困扰的好几个问题,比如resnet是怎么把梯度消失问题解决的,刘老师两页PPT完全给我讲明白了,非常感谢!

Lecture02——Linear Model

详细过程:

  • 本课程的主要任务是构建一个完整的线性模型:
    • 导入numpymatplotlib库;
    • 导入数据 x_datay_data;
    • 定义前向传播函数:
      • forward:输出是预测值y_hat
    • 定义损失函数:
      • loss:损失函数定义为MSE:均方根误差
    • 创建两个空列表,因为后面绘图的时候要用:
      • 分别是横轴的w_list和纵轴的mse_list
    • 开始计算(我觉得这里没有训练的概念,只是单纯的计算每一个数据对应的预测值,然后让预测值跟真是y值根据MSE求损失):
      • 外层循环,创建40个横坐标自变量:
        • w表示;
        • 在0.0~4.0之间均匀取点,步长0.1;
      • 内层循环:核心计算内容
        • 从数据集中,按数据对儿取出自变量x_val和真实值y_val;
        • 先调用forward函数,计算预测值 w*x(y_hat)
        • 调用loss函数,计算单个数据的损失数值;
        • 累加损失,并记下来(此处要提前初始化一个值为0的变量,后面才能不报错);
        • 随意打印想要看到的内容,一般是打印x_valy_valloss_val
        • 在外层循环中(也就是每一个数据对儿计算的时候),都要把计算的结果,放进之前的空列表,用于绘图;
  • 在获得了打印所需的数据列表只有,模式化地打印图像:

plt.plot(w_list, mse_list)
plt.xlabel(‘w’)
plt.ylabel('Loss)
plt.show()

备注:本例中,只有计算的过程,并没有训练一说,我想我写到这,线性模型这个代码,我才算是全懂了。

接下来:

【Pytorch深度学习实践】B站up刘二大人之 Gradient Descend-代码理解与实现(2/9)

完整代码:

#!usr/bin/env python
# -*- coding:utf-8 _*-
"""
@author: 24_nemo
@file: myHandType01.py
@time: 2022/04/07
@desc:
"""

import numpy as np
import matplotlib.pyplot as plt

x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]


def forward(x):
    return x * w


# loss function 是 均方根误差 loss = (y_hat - y) ** 2
def loss(x, y):
    y_pred = forward(x)
    return (y_pred - y) * (y_pred - y)


w_list = []
mse_list = []

for w in np.arange(0.0, 4.0, 0.1):
    print('w=', w)
    l_sum = 0
    for x_val, y_val in zip(x_data, y_data):  # A zip object yielding tuples until an input is exhausted;
        y_pred_val = forward(x_val)
        loss_val = loss(x_val, y_val)  # 传入的是x_val,但是经过loss中的forward计算后,已经是y_hat(估计值)了;
        l_sum += loss_val
        print('\t', x_val, y_val, y_pred_val, loss_val)
    print('MSE=', l_sum / len(x_data))  # 求一下 损失的均值
    w_list.append(w)
    mse_list.append(l_sum / len(x_data))

plt.plot(w_list, mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()

运行结果:

【Pytorch深度学习实践】B站up刘二大人之LinearModel -代码理解与实现(1/9)_第1张图片
【Pytorch深度学习实践】B站up刘二大人之LinearModel -代码理解与实现(1/9)_第2张图片

默写出的错误:

#!usr/bin/env python
# -*- coding:utf-8 _*-
"""
@author: 24_nemo
@file: myHandType01.py
@time: 2022/04/07
@desc:
"""

import numpy as np
import matplotlib.pyplot as plt

x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]


def forward(x):
    return x * w


def loss(x, y):
    y_hat = forward(x)
    return (y_hat - y) ** 2


w_list = []
loss_list = []

for w in np.arange(0.0, 4.0, 0.1):
    loss_sum = 0
    loss_avg = 0
    for x_val, y_val in zip(x_data, y_data):
        loss_val = loss(x_val, y_val)
        loss_sum += loss_val
        loss_avg = loss_sum / len(x_data)
    w_list.append(w)
    loss_list.append(loss_avg)

plt.plot(w_list, loss_list)
plt.xlabel('w')
plt.ylabel('MSE')
plt.show()

  • loss_sum 那里,总是过不去,原因:没有提前设定一个初始值,设置为0后,问题解决。
  • 补充上一条:什么时候需要提前定义一个初始值?
    • 答:在需要用运算符计算得到该结果的时候,需要提前定义初始0值。
    • 对比:loss_val 行,采用 函数loss计算,而不是运算符运算,所以不用提前定义 loss_val 的值;
    • loss_sumloss_avg 是加法和除法计算得来,需要提前定义。

目录:

【Pytorch深度学习实践】B站up刘二大人课程笔记——目录与索引(已完结)

下一篇:

【Pytorch深度学习实践】B站up刘二大人之 Gradient Descend-代码理解与实现(2/9)

你可能感兴趣的:(Python/Pycharm,图像处理,深度学习/PyTorch,深度学习,python,计算机视觉)