pytorch 神经网络模型套路 实现线性回归

1.问题描述:

已知三组学习时长和最终得分的数据,建立数学模型,预测学习时长为4小时的最终得分

2.随机梯度下降:

x:学习时长 y:最终得分

模型:本文采用线性回归y_pred=wx+b,求解参数w,b。也可以调节线性层bias=False,y_pred=wx,只调节参数w。

损失函数:本文采用loss=sum((y_pred-y)**2),也可以调节MSELoss中的参数size_average=True,损失函数loss=sum((y_pred-y)**2)/n

其中:y_pred为穷举不同w,b时x对应的预测输出,loss最小时参数w,b最优。因为要用到loss对w,b的梯度,故使用pytorch 自动求导机制,将w,b的梯度在反向计算完成时保存在tensor类型的w,b变量中。

3.python代码:

import torch
import matplotlib.pyplot as plt
from torch import optim
from torch.nn import MSELoss, Linear

# 准备数据,Tensor类型
x_data = torch.Tensor([[1], [2], [3]])
y_data = torch.Tensor([[2], [4], [6]])


# 建立模型,计算y_pred
class model(torch.nn.Module):
    def __init__(self):
        super(model, self).__init__()
        # 设置线性层有偏置,即y=wx+b,不加偏置的话设置bias=False,y=wx
        self.linear1 = Linear(1, 1, bias=True)

    def forward(self, x):
        y_pred = self.linear1(x)
        return y_pred


# 类实例化
my_model = model()

# 创建loss函数为MSE函数,size_average=True条件下loss=sum((y_pred-y)**2)/n,size_average=False时loss=sum((y_pred-y)**2)
loss_cal = MSELoss(size_average=True)

# 创建优化器,随机梯度下降,调整参数
optimizer = optim.SGD(my_model.parameters(), lr=0.01)

# 空列表,用于保存迭代次数epoch,损失函数值loss
epoch_list = []
loss_list = []

# 开始训练
for epoch in range(1000):
    epoch_list.append(epoch)

    # 前向计算y_pred
    y_pred = my_model(x_data)

    # 计算loss
    loss = loss_cal(y_pred, y_data)
    loss_list.append(loss.data)

    # 梯度清零
    optimizer.zero_grad()

    # 反向传播计算梯度
    loss.backward()

    # SGD调参
    optimizer.step()

# 输出线性层参数w,b
print(my_model.linear1.weight.data)
print(my_model.linear1.bias.data)

# 测试用例
x_test = torch.tensor([4.0])
y_test = my_model(x_test)
print(y_test)

# loss迭代曲线图
plt.figure()
plt.plot(epoch_list, loss_list)
plt.xlabel("epoch")
plt.ylabel("loss")
plt.show()

4.可视化结果:

pytorch 神经网络模型套路 实现线性回归_第1张图片

随着迭代次数增加,loss逐步减小。

输出w,b约等于2,0。测试x=4时预测结果y=8。

5.以上均为个人学习pytorch基础入门中的基础,浅做记录,如有错误,请各位大佬批评指正!

6.关于问题描述和原理的部分图片参考刘老师的视频课件,本文也是课后作业的一部分,特此附上视频链接,《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili,希望大家都有所进步!

你可能感兴趣的:(笔记,Python,Pytorch,pytorch,神经网络,线性回归)