pytorch深度学习实践_p5_用pytorch实现线性回归

知识点补充

  • torch.nn.Linear(input_dim,output_dim)
  • input_dim:输入的维度,即特征x的个数
  • output_dim:输出的维度,即输出y的个数
  • torch.nn.MSELoss(size_average = True, reduce = True)
  • size_average:True表示求batch中损失值的平均数;False表示求batch损失值的总和。默认为True。
  • reduce:True表示降维;False表示不降维,返回每一个batch元素的损失值。默认为True。
    相当于size_average的开关。True打开返回一个标量(可理解为一个数值),False关闭返回一个向量(可理解为一个数组)。
  • torch.optim.SGD(model.parameters(), lr=0.01)
  • model.parameters(),获取模型中所有的参数,SGD模型给出的参数必须是向量类型
  • lr:学习率

实现的步骤

  1. prepare dataset 准备数据集
  2. design model using class 使用类来设计模型
  3. constuct loss and optimizer 创建loss 和优化器
  4. taining cycle 循环训练

完整代码

import torch

#prepare dataset
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[2.0], [4.0], [6.0]])

#design model

class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel,self).__init__()
        self.linear = torch.nn.Linear(1, 1)

    def forward(self, x):
        y_pred = self.linear(x)
        return y_pred

model = LinearModel()
#constuct loss and optimizer

criterion = torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

#Training

for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred,y_data)
    print(epoch, loss.item())

    optimizer.zero_grad() #对之前的梯度清零
    loss.backward()       #反向传播计算梯度
    optimizer.step()      #更新参数

print('w = ', model.linear.weight.item())
print('b = ', model.linear.bias.item())

x_test = torch.Tensor([4.0])
y_test_pred = model(x_test)
print("y_pred:", y_test_pred.item())

你可能感兴趣的:(python,pytorch,人工智能,机器学习)