李沐深度学习笔记3.3简洁实现线性回归

3.3简洁实现线性回归

#生成数据集
import numpy as np
import torch
from torch.utils import data
from d2l import torch as d2l

true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = d2l.synthetic_data(true_w, true_b, 1000)

#读取数据集
def load_array(data_arrays, batch_size, is_train=True):  # 返回batch_size个样本
    """构造一个PyTorch数据迭代器。"""
    dataset = data.TensorDataset(*data_arrays)  # 将传入的特征和标签作为list传到TensorDataset里面得到一个pytorch的数据集(dataset)
    return data.DataLoader(dataset, batch_size,
                           shuffle=is_train)  # 调用Dataloader每次从dataset里面挑选batch_size个样本出来(shuffle:是否随机)


batch_size = 10
data_iter = load_array((features, labels), batch_size)  # 将特征和标签传入load_array

next(iter(data_iter))  # 转化成python的iter,在通过next函数

print(next(iter(data_iter)))

# 定义模型`nn` 是神经网络的缩写
from torch import nn

net = nn.Sequential(nn.Linear(2, 1))  # 输入维度为2(w),输出维度是1(label)
# 放入sequential容器内,其可以理解为list of layer,层组成的一个list 注:线性回归就一般就是只有一层
net[0].weight.data.normal_(0, 0.01)  # net[0]表示第0层  .weight访问w  data就是w的值  .normal使用正态分布替换掉data的值
net[0].bias.data.fill_(0)  # 偏置b置为零
#定义损失函数
loss = nn.MSELoss()#计算均方误差使用的是MSELoss类,也称为平方L2范数。 默认情况下,它返回所有样本损失的平均值。
#定义优化算法
trainer = torch.optim.SGD(net.parameters(), lr=0.03) #net.parameters():net里面的所有参数,包括w,b,然后指定学习率

#训练
num_epochs = 3
for epoch in range(num_epochs): #迭代3次
    for X, y in data_iter: #每次拿出一个小批量
        l = loss(net(X), y) #因为net自带参数,所以和之前不同的是不需要再传进去w和b
        trainer.zero_grad() #梯度清零
        l.backward() #计算梯度
        trainer.step() #调用step进行更新
    l = loss(net(features), labels)
    print(f'epoch {epoch + 1}, loss {l:f}')

w = net[0].weight.data
print('w的估计误差:', true_w - w.reshape(true_w.shape))
b = net[0].bias.data
print('b的估计误差:', true_b - b)

print(w,b)

你可能感兴趣的:(深度学习,python,人工智能)