https://courses.d2l.ai/zh-v2/
线性模型可以看做是单层神经网络
同样也是列向量
每一个 yi 就是一个实数的数值
1/2 来自于我们的损失函数,1/n 意味着我们要求平均
这是一个为数不多有最优解的模型
不能太小,计算梯度是整个模型中最贵的事情
不能太大,使得一直震荡
我们将从零开始实现整个方法,包括数据流水线、模型、损失函数和小批量随机梯度下降器
%matplotlib inline
import random
import torch
from d2l import torch as d2l
如果没有 d2l包,使用 pip install d2l 下载
random 随机梯度下降和随机初始化我们的权重
根据带有噪声的线性模型构造一个人造数据集。我们使用线性模型参数 w = [ 2 , − 3.4 ] T w=[2,−3.4]^T w=[2,−3.4]T 、 b = 4.2 b=4.2 b=4.2 和噪声项 ϵ 生成数据集及其标签:
y = X w + b + ϵ . y=Xw+b+ϵ. y=Xw+b+ϵ.
def synthetic_data(w, b, num_examples):
"""生成 y = Xw + b + 噪声。 """
X = torch.normal(0, 1, (num_examples, len(w)) # 生成均值为0,方差为1的随机数,大小就是n,列数就是w的长度。
y = torch.matmul(X, w) + b
y += torch.normal(0, 0.01, y.shape)
return X, y.reshape((-1, 1)) # 将 x,y 做成列向量返回
true_w = torch.tensor([2. -3.4])
true_b = 4.2
features, labels = synthetic_data(true_w, true_b, 1000)
features
中的每一行都包含一个二维数据样本,labels
中的每一行都包含一维标签值(一个标量)
print('features:', features[0], '\nlabel:', labels[0])
features: tensor([ 1.4505, -0.4573])
label: tensor([8.6602])
d2l.set_figsize()
d2l.plt.scatter(features[:, 1].detach().numpy(),
labels.detach().numpy(), 1);
把特征的第一列
detach()在某些PyTorch中,需要将其从计算图中剥离出来,才能转换到detach中
定义一个data_iter
函数, 该函数接收批量大小、特征矩阵和标签向量作为输入,生成大小为batch_size
的小批量。 每个小批量包含一组特征和标签。
def data_iter(batch_size, features, labels):
num_examples = len(features)
indices = list(range(num_examples))
# 这些样本随机读取,没有特定的顺序
random.shuffle(indices)
for i in range(0, num_examples, batch_size):
batch_indices = torch.tensor(indices[i:min(i+batch_size, num_examples)])
yield features[batch_indices], labels[batch_indices]
batch_size = 10
for X, y in data_iter(batch_size, features, labels):
print(X, '\n', y)
break
tensor([[-0.9078, -0.8015],
[ 0.7613, -0.5579],
[ 0.0397, -0.6770],
[ 1.0952, -1.7670],
[-0.9198, -1.1321],
[ 0.9789, 1.2506],
[ 0.0314, -1.5331],
[-0.2363, -1.2308],
[-0.7801, -1.0363],
[-1.4833, -1.8535]])
tensor([[ 5.1170],
[ 7.6031],
[ 6.5763],
[12.4095],
[ 6.2220],
[ 1.9141],
[ 9.4718],
[ 7.9104],
[ 6.1609],
[ 7.5246]])
没有 break 的话,会执行 1000/10=100 次,因为 for 没有跳出条件
w = torch.normal(0, 0.01, size=(2, 1), requires_grad=True) # normal 正态分布
b = torch.zeros(1, requires_grad=True)
def linreg(X, w, b):
"""线性回归模型。"""
return torch.matmul(X, w) + b
def squared_loss(y_hat, y):
"""均方损失。"""
return (y_hat - y.reshape(y_hat.shape))**2 /2
除以2是为了在后面求导的时候消去
注意这里没有求均值,就直接加起来了
def sgd(params, lr, batch_size): #@save
"""小批量随机梯度下降"""
with torch.no_grad():
for param in params:
param -= lr * param.grad / batch_size
param.grad.zero_()
- 上面没有除以batch_size,所以就在下面除了。
- 我们计算的损失是一个批量样本的总和,所有我们用批量大小(batch_size)来归一化步长,这样步长大小就不会取决于我们对批量大小的选择。
- PyTorch 会不断的累计变量的梯度,所以每更新一次参数,我们就要让其梯度清零。
在每次迭代中,我们读取一小批量训练样本,并通过我们的模型来获得一组预测。 计算完损失后,我们开始反向传播,存储每个参数的梯度。 最后,我们调用优化算法sgd来更新模型参数。
概括一下,我们将执行以下循环:
初始化参数
重复以下训练,直到完成
计算梯度
更新参数
在每个迭代周期(epoch)中,我们使用data_iter函数遍历整个数据集, 并将训练数据集中所有样本都使用一次(假设样本数能够被批量大小整除)。 这里的迭代周期个数num_epochs和学习率lr都是超参数,分别设为3和0.03。 设置超参数很棘手,需要通过反复试验进行调整。
lr = 0.03
num_epochs = 3
net = linreg
loss = squared_loss
for epoch in range(num_epochs):
for X, y in data_iter(batch_size, features, labels):
l = loss(net(X, w, b), y) # X和y的小批量损失
# 因为l形状是(batch_size,1),而不是一个标量。l中的所有元素被加到一起,
# 并以此计算关于[w,b]的梯度
l.sum().backward()
sgd([w, b], lr, batch_size) # 使用参数的梯度更新参数
with torch.no_grad():
train_l = loss(net(features, w, b), labels)
print(f'epoch {epoch + 1}, loss {float(train_l.mean()):f}')
l是向量,每个元素表示一个样本的误差除以批量数,求和是平均误差
print字符串前面加f表示格式化字符串
w = 2
print('%.2f' %w)
print(f'w = {w:.2f}')
2.00
w = 2.00
因为我们使用的是自己合成的数据集,所以我们知道真正的参数是什么。 因此,我们可以通过比较真实参数和通过训练学到的参数来评估训练的成功程度。 事实上,真实参数和通过训练学到的参数确实非常接近。
print(f'w的估计误差: {true_w - w.reshape(true_w.shape)}')
print(f'b的估计误差: {true_b - b}')
w的估计误差: tensor([4.1199e-04, 2.9087e-05], grad_fn=)
b的估计误差: tensor([0.0002], grad_fn=)
注意,我们不应该想当然地认为我们能够完美地求解参数。 在机器学习中,我们通常不太关心恢复真正的参数,而更关心如何高度准确预测参数。 幸运的是,即使是在复杂的优化问题上,随机梯度下降通常也能找到非常好的解。 其中一个原因是,在深度网络中存在许多参数组合能够实现高度精确的预测。
通过使用深度学习框架来简洁地实现 线性回归模型 生成数据集
import numpy as np
import torch
from torch.utils import data
from d2l import torch as d2l
true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = d2l.synthetic_data(true_w, true_b, 1000)
我们可以调用框架中现有的API来读取数据。 我们将features和labels作为API的参数传递,并通过数据迭代器指定batch_size。 此外,布尔值is_train表示是否希望数据迭代器对象在每个迭代周期内打乱数据。
def load_array(data_arrays, batch_size, is_train=True): #@save
"""构造一个PyTorch数据迭代器"""
dataset = data.TensorDataset(*data_arrays)
return data.DataLoader(dataset, batch_size, shuffle=is_train)
batch_size = 10
data_iter = load_array((features, labels), batch_size)
TensorDataset:把输入的两类数据进行一一对应;
DataLoader:重新排序
* 元组拆包符号,表示对 list 解开入参
这里我们使用iter构造Python迭代器,并使用next从迭代器中获取第一项。
next(iter(data_iter))
[tensor([[-0.4029, 0.1229],
[ 0.7648, -0.5334],
[-1.4805, -0.4086],
[-1.3591, -1.6593],
[-0.5733, 0.7504],
[ 0.8677, -0.5437],
[ 0.5396, 1.8577],
[ 0.7859, 0.4730],
[-0.2203, 2.4962],
[ 0.2515, -0.2374]]),
tensor([[ 2.9878],
[ 7.5485],
[ 2.6326],
[ 7.1093],
[ 0.5252],
[ 7.7728],
[-1.0352],
[ 4.1356],
[-4.7182],
[ 5.5096]])]
\quad 我们首先定义一个模型变量net,它是一个Sequential类的实例。 Sequential类将多个层串联在一起。 当给定输入数据时,Sequential实例将数据传入到第一层, 然后将第一层的输出作为第二层的输入,以此类推。 在下面的例子中,我们的模型只包含一个层,因此实际上不需要Sequential。 但是由于以后几乎所有的模型都是多层的,在这里使用Sequential会让你熟悉“标准的流水线”。
\quad 在PyTorch中,全连接层在Linear类中定义。 值得注意的是,我们将两个参数传递到nn.Linear中。 第一个指定输入特征形状,即2,第二个指定输出特征形状,输出特征形状为单个标量,因此为1。
# nn是神经网络的缩写
from torch import nn
net = nn.Sequential(nn.Linear(2, 1))
\quad 在使用net之前,我们需要初始化模型参数。 如在线性回归模型中的权重和偏置。 深度学习框架通常有预定义的方法来初始化参数。 在这里,我们指定每个权重参数应该从均值为0、标准差为0.01的正态分布中随机采样, 偏置参数将初始化为零。
\quad 正如我们在构造nn.Linear时指定输入和输出尺寸一样, 现在我们能直接访问参数以设定它们的初始值。 我们通过net[0]选择网络中的第一个图层, 然后使用weight.data和bias.data方法访问参数。 我们还可以使用替换方法normal_和fill_来重写参数值。
net[0].weight.data.normal_(0, 0.01)
net[0].bias.data.fill_(0)
tensor([0.])
计算均方误差使用的是MSELoss类,也称为平方 L 2 L_2 L2 范数。 默认情况下,它返回所有样本损失的平均值。
loss = nn.MSELoss()
小批量随机梯度下降算法是一种优化神经网络的标准工具, PyTorch在optim模块中实现了该算法的许多变种。 当我们实例化一个SGD实例时,我们要指定优化的参数 (可通过net.parameters()从我们的模型中获得)以及优化算法所需的超参数字典。 小批量随机梯度下降只需要设置lr值,这里设置为0.03。
trainer = torch.optim.SGD(net.parameters(), lr=0.03)
L1 范数就是算数差,L2范数就是平方差
SGD:stochastic gradient descent 随机梯度下降
通过深度学习框架的高级API来实现我们的模型只需要相对较少的代码。 我们不必单独分配参数、不必定义我们的损失函数,也不必手动实现小批量随机梯度下降。 当我们需要更复杂的模型时,高级API的优势将大大增加。 当我们有了所有的基本组件,训练过程代码与我们从零开始实现时所做的非常相似。
回顾一下:在每个迭代周期里,我们将完整遍历一次数据集(train_data), 不停地从中获取一个小批量的输入和相应的标签。 对于每一个小批量,我们会进行以下步骤:
通过调用net(X)生成预测并计算损失l(前向传播)。
通过进行反向传播来计算梯度。
通过调用优化器来更新模型参数。
为了更好的衡量训练效果,我们计算每个迭代周期后的损失,并打印它来监控训练过程。
num_epochs = 3
for epoch in range(num_epochs):
for X, y in data_iter:
l = loss(net(X) ,y)
trainer.zero_grad()
l.backward() # PyTorch 已经帮我们做了sum,不需要我们自己去做了
trainer.step() # 更新权重和偏差
l = loss(net(features), labels)
print(f'epoch {epoch + 1}, loss {l:f}')
epoch 1, loss 0.000334
epoch 2, loss 0.000100
epoch 3, loss 0.000100
Google Colab
除以n,可以使学习率比较好调,不受样本参数大小影响
。最小化损失
。物理中除以 n-1,是为了让样本的期望等于总体期望。这里最小化损失,无所谓。