LASSO( least absolute shrinkage and selection operator,最小绝对值收缩和选择算子)方法与岭回归和LARS(least angle regression,最小角回归)很类似。与岭回归类似,它也是通过增加惩罚函数来判断、消除特征间的共线性。与LARS相似的是它也可以用作参数选择,通常得出一个相关系数的稀疏向量。
详细的数学推导可以参考这篇CSDN博客。
岭回归也不是万能药。有时就需要用LASSO回归来建模。本文将用不同的损失函数,因此就要用对应的效果评估方法。
首先,我们还是用make_regression
函数来建立数据集:
from sklearn.datasets import make_regression
reg_data, reg_target = make_regression(n_samples=200, n_features=500, n_informative=5, noise=5)
reg_data.shape
(200L, 500L)
之后,我们导入lasso
对象:
from sklearn.linear_model import Lasso
lasso = Lasso()
lasso
包含很多参数,但是最意思的参数是alpha
,用来调整lasso
的惩罚项,在后面会具体介绍。现在我们用默认值1
。另外,和岭回归类似,如果设置为0
,那么lasso
就是线性回归:
lasso.fit(reg_data, reg_target)
Lasso(alpha=1.0, copy_X=True, fit_intercept=True, max_iter=1000,
normalize=False, positive=False, precompute=False, random_state=None,
selection='cyclic', tol=0.0001, warm_start=False)
再让我们看看还有多少相关系数非零:
import numpy as np
np.sum(lasso.coef_ != 0)
8
lasso_0 = Lasso(0)
lasso_0.fit(reg_data, reg_target)
np.sum(lasso_0.coef_ != 0)
C:\Anaconda2\lib\site-packages\ipykernel__main__.py:2: UserWarning: With alpha=0, this algorithm does not converge well. You are advised to use the LinearRegression estimator
from ipykernel import kernelapp as app
C:\Anaconda2\lib\site-packages\sklearn\linear_model\coordinate_descent.py:454: UserWarning: Coordinate descent with alpha=0 may lead to unexpected results and is discouraged.
positive)
500
和我们设想的一样,如果用线性回归,没有一个相关系数变成0。而且,如果你这么运行代码,scikit-learn会给出建议,就像上面显示的那样。
对线性回归来说,我们是最小化残差平方和。而LASSO回归里,我们还是最小化残差平方和,但是加了一个惩罚项会导致稀疏。如下所示:
最小化残差平方和的另一种表达方式是:
这个约束会让数据稀疏。LASSO回归的约束创建了围绕原点的超立方体(相关系数是轴),也就意味着大多数点都在各个顶点上,那里相关系数为0。而岭回归创建的是超平面,因为其约束是L2范数,少一个约束,但是即使有限制相关系数也不会变成0。
上面的公式中,选择适当的 λ (在scikit-learn的Lasso
里面是alpha
,但是书上都是 λ )参数是关键。我们可以自己设置,也可以通过交叉检验来获取最优参数:
from sklearn.linear_model import LassoCV
lassocv = LassoCV()
lassocv.fit(reg_data, reg_target)
LassoCV(alphas=None, copy_X=True, cv=None, eps=0.001, fit_intercept=True,
max_iter=1000, n_alphas=100, n_jobs=1, normalize=False, positive=False,
precompute='auto', random_state=None, selection='cyclic', tol=0.0001,
verbose=False)
lassocv
有一个属性就是确定最合适的 λ :
lassocv.alpha_
0.80422168226821189
计算的相关系数也可以看到:
lassocv.coef_[:5]
array([-0. , 0. , -0. , -0. , -0.32119958])
用最近的参数拟合后,lassocv
的非零相关系数有13个:
np.sum(lassocv.coef_ != 0)
13
LASSO通常用来为其他方法做特征选择。例如,你可能会用LASSO回归获取适当的特征变量,然后在其他算法中使用。
要获取想要的特征,需要创建一个非零相关系数的列向量,然后再其他算法拟合:
mask = lassocv.coef_ != 0
new_reg_data = reg_data[:, mask]
new_reg_data.shape
(200, 29)
500维特征经过LASSO稀疏以后只剩下29维特征