线性回归的简洁实现(调库)

通过使用深度学习框架来简洁地实现线性回归模型。

通过调用torch.utils中的data,这里面有一些处理数据的模块

一:载入包

import numpy as np
import torch
from torch.utils import data
from d2l import torch as d2l

和之前手动一样,构造一个真实的w和b,同过人工数据合成的函数,生成特征和标签

true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = d2l.synthetic_data(true_w, true_b, 1000)

二:调用框架中现有的API来读取数据

已经有了features和labels,把它们做成list,传入一个tensor的Dataset里面,得到数据集

TensorDataset:把输入的两类数据进行一一对应

def load_array(data_arrays, batch_size, is_train=True):  
    """构造一个PyTorch数据迭代器"""
    dataset = data.TensorDataset(*data_arrays) #传入数据,通过库里的函数,得到数据集dataset。括号中的一个星号,表示对list解开入参,即把列表元素分别当作参数传入
    return data.DataLoader(dataset, batch_size, shuffle=is_train)  #shuffle表示是否需要对数据打乱顺序,后加布尔值is_train则表示需要对数据打乱顺序(前面定义了is_train=True)

batch_size = 10  #小批量大小
data_iter = load_array((features, labels), batch_size) #将特征和标签,做成一个list,
next(iter(data_iter))  #转化为python的iter,通过next函数得到一个x和一个y

return data.DataLoader(dataset, batch_size, shuffle=is_train) 这句话的含义是,随机从数据集中取出batch_size个数量(超参数)的数据

next函数:从迭代器中检索下一个目标,参数分别由什么含义在文章中有(46条消息) python next函数有什么作用_Python内置函数 next的具体使用方法_爱笑的姑娘最美的博客-CSDN博客

三:使用框架预定好的层

# nn是神经网络的缩写
from torch import nn

net = nn.Sequential(nn.Linear(2, 1))#Sequential可将层按顺序摆放好(list of layers)

在PyTorch中,全连接层在Linear类中定义。 值得注意的是,我们将两个参数传递到nn.Linear中。 第一个指定输入特征形状,即2,第二个指定输出特征形状,输出特征形状为单个标量,因此为1。

Sequential:一个有序的容器,神经网络模块将按照传入构造器的顺序依次添加到计算机图中进行执行,同时,以神经网络为元素的有序字典也可以作为传入参数

四:初始化参数模型

在使用net函数之前,我们需要初始化模型参数。 如在线性回归模型中的权重和偏置。 深度学习框架通常有预定义的方法来初始化参数。 在这里,我们指定每个权重参数应该从均值为0、标准差为0.01的正态分布中随机采样, 偏置参数将初始化为零。

正如我们在构造nn.Linear时指定输入和输出尺寸一样, 现在我们能直接访问参数以设定它们的初始值。 我们通过net[0]选择网络中的第一个图层, 然后使用weight.databias.data方法访问参数。 我们还可以使用替换方法normal_fill_来重写参数值。

net[0].weight.data.normal_(0, 0.01) #下划线的意思是,使用正态分布,替换掉权重data的值(仍然使用的均值为0,方差为0.01)
net[0].bias.data.fill_(0)  #使用填充0,替换掉偏差data的值

out:

补充:使用替换方法normal_fill_来重写参数值的方法

五:计算均方误差的函数

计算均方误差使用的是MSELoss类,也称为平方L2范数。 默认情况下,它返回所有样本损失的平均值。

loss=nn.MSEloss

六:优化算法

实例化SGD:

train=torch.optim.SGD(net.parameters(),lr=0.03)#用net.parameters()可以拿出net中的所有参数,比如w和b
#lr是学习率

sgd在optim的模组里面

当我们实例化一个SGD实例时,我们要指定优化的参数 (可通过net.parameters()从我们的模型中获得)以及优化算法所需的超参数字典。 小批量随机梯度下降只需要设置lr值,这里设置为0.03。

七:训练

通过深度学习框架的高级API来实现我们的模型只需要相对较少的代码。 我们不必单独分配参数、不必定义我们的损失函数,也不必手动实现小批量随机梯度下降。 当我们需要更复杂的模型时,高级API的优势将大大增加。 当我们有了所有的基本组件,训练过程代码与我们从零开始实现时所做的非常相似。

回顾一下:在每个迭代周期里,我们将完整遍历一次数据集(train_data), 不停地从中获取一个小批量的输入和相应的标签。 对于每一个小批量,我们会进行以下步骤:

  • 通过调用net(X)生成预测并计算损失l(前向传播)。

  • 通过进行反向传播来计算梯度。

  • 通过调用优化器来更新模型参数。

为了更好的衡量训练效果,我们计算每个迭代周期后的损失,并打印它来监控训练过程。

num_epochs = 3
for epochs in range(num_epochs):
    for X,y in data_iter:
        l = loss(net(X),y)  #这里的net现在自带了参数,不用像手动识别时写成net(X,w,b)了、loss是将net(X)得到的预测值与真实值y做比较
        trainer.zero_grad() #优化器先把梯度清零
        l.backward()  #这里不用像之前手动一样,要去求sum了,因为pytorch已经把sum求好了
        trainer.step()  #有了梯度之后,调用step函数,进行模型的更新
    l = loss(net(features),labels) 
    print(f'epochs {epochs+1},loss {l:f}')
    

结果:

线性回归的简洁实现(调库)_第1张图片

下面我们比较生成数据集的真实参数和通过有限数据训练获得的模型参数。 要访问参数,我们首先从net访问所需的层,然后读取该层的权重和偏置。 正如在从零开始实现中一样,我们估计得到的参数与生成数据的真实参数非常接近。

w = net[0].weight.data
print('w的估计误差:', true_w - w.reshape(true_w.shape))
b = net[0].bias.data
print('b的估计误差:', true_b - b)

 八:小结

  • 我们可以使用PyTorch的高级API更简洁地实现模型。

  • 在PyTorch中,data模块提供了数据处理工具,nn模块定义了大量的神经网络层和常见损失函数。

  • 我们可以通过_结尾的方法将参数替换,从而初始化参数。(实用)

特别感谢:李沐老师

文中引用内容为他人原创,已表明其出处

你可能感兴趣的:(线性回归,算法,回归)