机器学习学习笔记(五)线性回归法

一.简单线性回归

机器学习学习笔记(五)线性回归法_第1张图片
简单线性回归

通过分析问题,确定文体的损失函数或者效用函数;

通过最优化损失函数或者效用函数,获得机器学习的模型。

损失函数尽可能的小,效用函数尽可能大。

典型的最小二乘法问题:最小化误差的平方。

二.回归算法得评价

1.MSE

机器学习学习笔记(五)线性回归法_第2张图片
MSE

2.RMSE

机器学习学习笔记(五)线性回归法_第3张图片

3.MAE   


机器学习学习笔记(五)线性回归法_第4张图片

4.R Squared

机器学习学习笔记(五)线性回归法_第5张图片
R Squared


机器学习学习笔记(五)线性回归法_第6张图片

三.多元线性回归


机器学习学习笔记(五)线性回归法_第7张图片

四.使用Scilit-learn解决回归问题

from sklearn.linear_model import LinearRegression

lin_reg=LinearRegression()

lin_reg.fit(x_train,y_train)

KNNRegressor

from sklearn.neithbors import KNeighborsRegressor

knn_reg= KNeighborsRegressor()

knn_reg.fit(x_train,y_train)

knn_reg.score(x_test,y_test)

五.总结

对数据有假设:线性。

对比KNN对数据没有假设

有点:对数据具有强解释性(白盒算法,学到了知识与之间的关系)

更多:

机器学习学习笔记(六)梯度下降法

机器学习学习笔记(七)PCA

你可能感兴趣的:(机器学习学习笔记(五)线性回归法)