线性回归、lasso回归和岭回归(ridge regression)

线性回归很简单,用线性函数拟合数据,用均方差mean square error (mse) 计算损失(cost),然后用梯度下降法找到一组使 mse 最小的权重

lasso 回归和岭回归(ridge regression)其实就是在标准线性回归的基础上分别加入 L1 和 L2 正则化(regularization)。

线性回归——最小二乘

线性回归、lasso回归和岭回归(ridge regression)_第1张图片

Lasso回归和岭回归

线性回归、lasso回归和岭回归(ridge regression)_第2张图片

Lasso回归和岭回归的同和异

  • 相同:
    • 都可以用来解决标准线性回归的过拟合问题
  • 不同:
    • lasso 可以用来做 feature selection,而 ridge 不行。或者说,lasso 更容易使得权重变为 0,而 ridge 更容易使得权重接近 0。
    • 从贝叶斯角度看,lasso(L1 正则)等价于参数 ww 的先验概率分布满足拉普拉斯分布,而 ridge(L2 正则)等价于参数 ww 的先验概率分布满足高斯分布。从贝叶斯角度深入理解正则化

也许会有个疑问,线性回归还会有过拟合问题?

加入 L1 或 L2 正则化,让权值尽可能小,最后构造一个所有参数都比较小的模型。因为一般认为参数值小的模型比较简单,能适应不同的数据集,也在一定程度上避免了过拟合现象

可以设想一下对于一个线性回归方程,若参数很大,那么只要数据偏移一点点,就会对结果造成很大的影响;但如果参数足够小,数据偏移得多一点也不会对结果造成什幺影响,一种流行的说法是『抗扰动能力强』。具体参见博客 浅议过拟合现象(overfitting)以及正则化技术原理。

为什么 lasso 更容易使部分权重变为 0 而 ridge 不行?

线性回归、lasso回归和岭回归(ridge regression)_第3张图片

线性回归、lasso回归和岭回归(ridge regression)_第4张图片

线性回归、lasso回归和岭回归(ridge regression)_第5张图片

原文链接:

线性回归——lasso回归和岭回归(ridge regression)

你可能感兴趣的:(人工智能,python)