用tensor实现线性回归

表达式 y = 3x^{2} + 2  加上一些噪音数据得到另一个数据y

构建一个机器学习模型,学习表达式y = wx^{2}  + b ,利用数组x,y的数据为训练数据 

采用梯度下降法,通过多次迭代,学习到w,b的值

#   损失函数   Loss =0.5 \sum_{i = 1}^{100} (wx_{i}^{2} +b - y_{i})^{2}

     自动计算梯度

import torch
from matplotlib import pyplot as plt

torch.manual_seed(100)
dtype = torch.float
x = torch.unsqueeze(torch.linspace(-1,1,100),dim = 1)     # 维度是一维
y = 3 * x.pow(2) + 2 + 0.2 * torch.rand(x.size())
# 生成(0,1)之间的,格式跟x一样的(100,1)
plt.scatter(x,y)
plt.show()
w = torch.randn(1,1,dtype=dtype,requires_grad=True)       
# randn 返回一组随机的具有正态分布的样本
b = torch.zeros(1,1,dtype=dtype,requires_grad=True)
lr = 0.001
for i in range(1000):
    y_pred = x.pow(2).mm(w) + b                            # wx^2+b
    loss = 0.5 * (y_pred - y) ** 2
    loss = loss.sum()
    loss.backward()                                   # 自动计算梯度,梯度存放在grad属性中
    with torch.no_grad():                             # 手动更新参数。切断求导计算
        w -= lr * w.grad                    
        # a-=1 在原值上进行修改  a=a+1 先定义一个变量,然后对变量本身进行修改
        b -= lr * b.grad
        w.grad.zero_()
        b.grad.zero_()                                # 梯度清零,避免下一次循环时梯度累加

plt.plot(x,y_pred.detach(),'r-',label = 'predict')    # detach 返回一个新的没有梯度的tensor
plt.scatter(x,y,color='blue',marker='o',label='true')
plt.xlim(-1,1)
plt.ylim(2,6)
plt.legend()
plt.show()
print(w,b)

结果

用tensor实现线性回归_第1张图片

 用tensor实现线性回归_第2张图片

 tensor([[2.9664]], requires_grad=True) tensor([[2.1139]], requires_grad=True)

结果发现跟使用numpy实现差不多

你可能感兴趣的:(pytorch入门,线性回归,算法,回归)