B站刘二大人-线性回归 Pytorch实现 Lecture 5


系列文章:

《PyTorch深度学习实践》完结合集-B站刘二大人

Pytorch代码注意的细节,容易敲错的地方

B站刘二大人-线性回归及梯度下降 Lecture3

B站刘二大人-反向传播Lecture4

B站刘二大人-线性回归 Pytorch实现 Lecture 5

B站刘二大人-多元逻辑回归 Lecture 7

B站刘二大人-数据集及数据加载 Lecture 8

B站刘二大人-Softmx分类器及MNIST实现-Lecture 9


文章目录

    • 线性回归 Pytorch实现


线性回归 Pytorch实现

import matplotlib.pyplot as plt
import  torch
x_data = torch.Tensor([[1.0, 2.0, 3.0]])
y_data = torch.Tensor([[2.0, 4.0, 6.0]])

class LinearModel(torch.nn.Module):
    # 成员方法__init__ 及 forward 必须实现
    def __init__(self):
        super(LinearModel, self).__init__()
        # 1,1,代表权重weight和偏置b的size
        self.linear = torch.nn.Linear(3, 1)

    def forward(self, x):
        y_pred = self.linear(x)
        return  y_pred

model = LinearModel()
# 损失函数计算一个batch中所有loss的均值
criterion =  torch.nn.MSELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.0005)
loss_list = []
epoch_list = []
for epoch in range(200):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
    print(epoch, loss.item())
    loss_list.append(loss.item())
    epoch_list.append(epoch)
    # 梯度会在backward时累计,所以在backward之前必须重置
    optimizer.zero_grad()
    loss.backward()
    # update
    optimizer.step()

plt.plot(epoch_list, loss_list)
plt.xlabel("epoch")
plt.ylabel("loss")
plt.show()

B站刘二大人-线性回归 Pytorch实现 Lecture 5_第1张图片

你可能感兴趣的:(PyTorch使用,pytorch,线性回归,深度学习)