《PyTorch深度学习实践》第五讲 用PyTorch实现线性回归

首先确定线性模型函数,以及损失函数的公式

《PyTorch深度学习实践》第五讲 用PyTorch实现线性回归_第1张图片

编写代码主要有四个步骤:

《PyTorch深度学习实践》第五讲 用PyTorch实现线性回归_第2张图片

 以下是我对于本节做的笔记,话不多说,上图

《PyTorch深度学习实践》第五讲 用PyTorch实现线性回归_第3张图片

 《PyTorch深度学习实践》第五讲 用PyTorch实现线性回归_第4张图片

 线性模型的pytorch实现代码如下:

import torch

# prepare dataset      第一步:准备数据集
# x,y是矩阵,3行1列 也就是说总共有3个数据,每个数据只有1个特征
x_data = torch.tensor([[1.0],[2.0],[3.0]])          #每个元素一定要用[]括起来
y_data = torch.tensor([[2.0],[4.0],[6.0]])

#design model using class 第二步:设计模型使用的类
"""
我们的模型类应该从nn(neural network神经网络)继承。它是所有神经网络模块的基类。
成员方法__init__()和forward()必须在类nn中实现。线性包含两个成员张量:权量和偏置类nn。Linear实现了神奇的方法__call__(),
它使类的实例可以像函数一样被调用。通常会调用forward()
"""
class LinearModel(torch.nn.Module):       #把模型构建成一个类
    def __init__(self):
        super(LinearModel,self).__init__()
        # (1,1)是指输入x和输出y的特征维度,这里数据集中的x和y的特征都是1维的
        # 该线性层需要学习的参数是w和b  获取w/b的方式分别是~linear.weight/linear.bias
        self.linear = torch.nn.Linear(1,1)

    def forward(self,x):
        y_pred = self.linear(x)
        return y_pred

model = LinearModel()

# construct loss and optimizer   第三步:构造损失和优化器
# criterion(损失准则) = torch.nn.MSELoss(size_average = False)

criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(),lr=0.02)      # model.parameters()自动完成参数的初始化操作,lr学习率

#training cycle forward, backward, update  第四步:训练前向,后向更新周期
for epoch in range(1000):
    y_pred = model(x_data)  # forward:predict
    loss = criterion(y_pred,y_data)   # forward: loss
    print(epoch,loss.item())

    optimizer.zero_grad()  # the grad computer by .backward() will be accumulated(累积). so before backward, remember set the grad to zero
    loss.backward()  # backward: autograd,自动计算梯度
    optimizer.step()  # update 参数,即更新w和b的值

print('w=',model.linear.weight.item())
print('b=',model.linear.bias.item())
x_test = torch.tensor([[4.0]])
y_test = model(x_test)
print('y_pred=',y_test)



以下是迭代100,1000次得到的结果:

《PyTorch深度学习实践》第五讲 用PyTorch实现线性回归_第5张图片《PyTorch深度学习实践》第五讲 用PyTorch实现线性回归_第6张图片

 

你可能感兴趣的:(pytorch深度学习实践,深度学习,pytorch,线性回归)