多元线性回归LinearRegression

基本原理:\widehat{y_{i}} = w_{0}+w_{1}x_{i1}+w_{2}x_{i2}+ \cdots +w_{n}x_{in}

损失函数:\sum_{i=1}^{m}(y_{i}-\widehat{y_{i}})^{2}

linear_model.LinearRegression

fit_intercept

布尔值,可不填,默认True

False 不计算截距

normalize

布尔值,可不填,默认False  忽略此参数

True 特征矩阵在进入回归前减去均值(中心化)并处以L2范式(缩放)

如果希望数据标准化,在fit之前使用preprocessing模块中的标准化专用类StandardScaler

copy_X 布尔值,可不填,默认True 在X.copy()上进行操作,原本特征矩阵不被覆盖
n_jobs

整数或None,可不填,默认None

用于计算的作业数,只在多标签的回归和数据量足够大的时候生效

评估指标

残差平方和:却接近0越好,但是可以无限扩大,不能准确评估谁最好。

均方误差:残差平方和/样本数量=MSE

MAE:    MAE = \frac{1}{m}\sum_{i=0}^{m-1}\left | y_{i}-\widehat{y_{i}} \right |

你可能感兴趣的:(机器学习sklearn,线性回归,回归,算法)