一次线性回归拟合、二次线性回归拟合

器学习一次回归和二次回归

reshape(行,列)可以根据指定的数值将数据转换为特定的行数和列数###reshape(-1,1)之后,数据集变成了一列

#采用线性回归方程预测
lr=LinearRegression()
lr.fit (X,y)
from sklearn.linear_model import LinearRegression
lr = LinearRegression()
# 训练模型(为了方便没有拆封训练集和测试集)
X = x.reshape(-1,1)
print(X.shape)
lr.fit(X,y)
# 训练过程就是寻找最佳权重和偏置的过程
print('权重',lr.coef_,'偏置',lr.intercept_)
y_predict = lr.predict(X)
plt.scatter(x,y)
# 生成线性图,观察预测值与真实值的误差
plt.plot(x,y_predict,color='r')
plt.show()
print(lr.score(X,y))

一次线性方程不合适,转变为二次线性方程

# y = w * x + b ===>  y = w1 * x**2 + w2 * x + b
print((X**2).shape)
# hstack 在水平方向追加, vstack垂直方向叠加
X2 = np.hstack([X**2,X])   # 将x^2 作为跟X一样的参数,使多计算一个权重
print(X2.shape)

## 

```python
import numpy as np
import matplotlib.pyplot as plt
# 在指定[-3,3]随机生成size个随机数(代表的特征值)
x = np.random.uniform(-3,3,size=100)
print(x,x.shape)
# 模拟目标值(y) 与x并不是简单的线性关系
y = 0.5 * x**2 + x + 2 + np.random.normal(0,1,size=100)

# 采用线性回归的方程来预测
from sklearn.linear_model import LinearRegression
lr = LinearRegression()
# 训练模型(为了方便没有拆封训练集和测试集)
X = x.reshape(-1,1)
print(X.shape)
lr.fit(X,y)
# 训练过程就是寻找最佳权重和偏置的过程
print('权重',lr.coef_,'偏置',lr.intercept_)
y_predict = lr.predict(X)
plt.scatter(x,y)
# 生成线性图,观察预测值与真实值的误差
plt.plot(x,y_predict,color='r')
plt.show()
print(lr.score(X,y))


# y = w * x + b ===>  y = w1 * x**2 + w2 * x + b
print((X**2).shape)
# hstack 在水平方向追加, vstack垂直方向叠加
X2 = np.hstack([X**2,X])   # 将x^2 作为跟X一样的参数,使多计算一个权重
print(X2.shape)
# 线性回归模型进行训练
lr = LinearRegression()
lr.fit(X2,y)
# 训练过程就是寻找最佳权重和偏置的过程
print('权重',lr.coef_,'偏置',lr.intercept_)
y_predict = lr.predict(X2)
# 真实的数据集采用散点图显示
plt.scatter(x,y)
# 预测数据集,采用线形图显示,必须按照x轴从小到大进行绘制
# plt.plot(x,y_predict,color='r')
plt.plot(np.sort(x),y_predict[np.argsort(x)],color='r')
plt.show()
print(lr.score(X2,y))

你可能感兴趣的:(python)