sklearn库求解线性回归最小二乘法实例代码(Python,附数据集下载)

代码实现:

# 调库求解线性回归最小二乘法

# 0. 引入依赖
import numpy as np
import matplotlib.pyplot as plt


# 1. 导入数据
points = np.genfromtxt('D:\学习资料\推荐系统\代码\练习代码\自己手打\data.csv', delimiter = ',')
points[0, 0]


# 提取points中的两列数据, 分别作为x,y
x = points[:, 0]
y = points[:, 1]

# 用plt画出散点图
plt.scatter(x, y)
plt.show()

# 2. 定义损失函数
def compute_cost(w, b, points):
    total_cost = 0
    M = len(points)
    
    #逐点计算平方损失函数,然后计算平均值
    for i in range(M):
        x = points[i,0]
        y = points[i, 1]
        total_cost += (y - w * x - b) ** 2
        
    return total_cost/M


# 3. 调库
from sklearn.linear_model import LinearRegression
lr = LinearRegression()

# 导入数据
# 转换 ,将数据转换为二维数组,不然lr.fit()会报错
x_new = x.reshape(-1, 1)    #-1指行数不限,后面1表示一列,x变成了一个矩阵
y_new = y.reshape(-1, 1)

# 拟合
lr.fit(x_new, y_new)


# 4. 运行       
# 从训练好的模型中提取系数w和截距b
w = lr.coef_[0][0]    # 系数w,[0][0]意思是拿出一个数而不是一个矩阵
b = lr.intercept_[0]

print('w is : ', w)
print('b is : ', b)

cost = compute_cost(w, b, points)

print('cost is : ', cost)


# 5. 画出拟合曲线
plt.scatter(x, y)
# 针对每一个x, 计算出预测的y值
pred_y = w * x + b

plt.plot(x, pred_y, c = 'r')
plt.show()

运行结果:

w is :  1.3224310227553597
b is :  7.991020982270399
cost is :  110.25738346621318

sklearn库求解线性回归最小二乘法实例代码(Python,附数据集下载)_第1张图片
与我前面的一篇自己建模的最小二乘法求解文章运行结果差不多

代码中的数据集data下载地址:

https://github.com/ZL-2017/-.git

参考文献:

尚硅谷 讲师:武晟然

写给自己:

天行健,君子以自强不息

你可能感兴趣的:(python,机器学习,深度学习)