岭回归及其Scikit-learn实现

  • 概述

  对于普通最小二乘的参数估计问题,当模型的各项是相关时,最小二乘估计对于随机误差非常敏感,会产生很大的方差。一般来说,对于没有经过实验设计搜集到的数据,很容易出现这种多重共线性。而岭回归在最小二乘法的基础上通过对回归系数施加‘惩罚’来解决这些问题,具体来说,就是在偏差平方和函数中加上了一个l2正则项,通过正则项来调节参数,删除那些相关的项。岭回归的误差平方和函数为:
其中,是控制系数伸缩量的参数,可以通过的值使模型的方差和偏差达到平衡。随着的增大,方差减小而偏差增大。

岭回归及其Scikit-learn实现_第1张图片

  • 实际应用
    Scitkit-learn使用Ridge()函数实现岭回归。
class sklearn.linear_model.Ridge(alpha=1.0, fit_intercept=True, normalize=False, copy_X=True, max_iter=None, tol=0.001, solver='auto', random_state=None)¶
  • Parameters
    alpha:正则化系数,较大的值指定更强的正则化。
    fit_intercept:是否计算模型的截距,默认为True,计算截距

normalize:在需要计算截距时,如果值为True,则变量x在进行回归之前先进行归一化(),如果需要进行标准化则normalize=False。若不计算截距,则忽略此参数。


copy_X:默认为True,将复制X;否则,X可能在计算中被覆盖。


max_iter:共轭梯度求解器的最大迭代次数。对于sparse_cglsqr,默认值由scipy.sparse.linalg确定。对于sag求解器,默认值为1000.
tol:float类型,指定计算精度。
solver:求解器{auto,svd,cholesky,lsqr,sparse_cg,sag,saga}

aotu:根据数据类型自动选择求解器
svd:使用X的奇异值分解计算岭系数。奇异矩阵比cholesky更稳定
cholesky:使用标准的scipy.linalg.solve函数获得收敛的系数
sparsr_cg:使用scipy.sparse.linalg.cg中的共轭梯度求解器。作为一种迭代算法,这个求解器比cholesky更适合大规模数据(设置tol和max_iter的可能性)
lsqr:使用专用的正则化最小二乘方法scipy.sparse.linalg.lsqr
sag:使用随机平均梯度下降,saga使用其改进的,无偏见的版本,两种方法都使用迭代过程。


random_state:随机数生成器的种子。


  • Attributes

coef_:返回模型的估计系数。
intercept_:线性模型的独立项,一维情形下的截距。
n_iter:实际迭代次数。

  • Methods
    fit(X,y):使用数据训练模型
    get_params([deep=True]):返回函数LinearRegression()内部的参数值
    predict(X):使用模型做预测
    score(X,y):返回模型的拟合优度判定系数

为回归平方和与总离差平方和的比值,介于0-1之间,越接近1模型的拟合效果越显著。

set_params(**params):设置函数LinearRegression()内部的参数。

  • 实例
from sklearn.preprocessing import scale
from sklearn.model_selection import train_test_split
from sklearn.linear_model import Ridge
from sklearn.datasets import load_boston
import numpy as np
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False
boston = load_boston()
X = scale(boston.data)
y = boston.target
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.8)
lmodel = Ridge(alpha=i,fit_intercept = True,solver = 'auto',copy_X=True)
lmodel.fit(X_train,y_train)
Ridge(alpha=1.0, copy_X=True, fit_intercept=True, max_iter=None,
   normalize=False, random_state=None, solver='auto', tol=0.001)
lmodel.coef_
array([-1.11125473,  0.89842868, -0.00522108,  0.65887304, -1.93970763,
        2.95928617, -0.13589642, -2.98057045,  2.57068677, -2.03507147,
       -2.02756142,  0.88785945, -3.39465369])
lmodel.intercept_
22.48662693222167
lmodel.score(X_train,y_train)
0.7818715197682596
lmodel.get_params()
{'alpha': 1.0,
 'copy_X': True,
 'fit_intercept': True,
 'max_iter': None,
 'normalize': False,
 'random_state': None,
 'solver': 'auto',
 'tol': 0.001}
error = pow(lmodel.predict(X_test)-y_test,1)/len(X_test)
plt.figure(1,dpi = 100)
plt.scatter(np.arange(len(error)),error)
plt.ylabel('残差')
plt.title('残差图')
Text(0.5,1,'残差图')
岭回归及其Scikit-learn实现_第2张图片
image

你可能感兴趣的:(岭回归及其Scikit-learn实现)