L1正则化和L2正则化有什么区别

  • L1正则化偏向于稀疏,它会自动进行特征选择,去掉一些没用的特征,也就是将这些特
    征对应的权重置为0.
  • L2主要功能是为了防止过拟合,当要求参数越小时,说明模型越简单,而模型越简单则,越趋向于平滑,从而防止过拟合。
  • L1正则化/Lasso
  • L1正则化将系数的1范数作为惩罚项加到损失函数上,由于正则项非零,这就迫使那些弱的特征所对应的系数变成0。因此L1正则化往往会使学到的模型很稀疏(系数经常为0),这个特性使得L1正则化成为一种很好的特征选择方法。
  • L2正则化/Ridge regression
    L2正则化将系数向量的L2范数添加到了损失函数中。由于L2惩罚项中系数是二次方的,这使得L2和L1有着诸多差异,最明显的一点就是,L2正则化会让系数的取值变得平均。
  • 对于关联特征,这意味着他们能够获得更相近的对应系数。还是以Y=X1+X2为例,假设X1和X2具有很强的关联,如果用L1正则化,不论学到的模型是Y=X1+X2还是Y=2X1,惩罚都是一样的,都是2 2alpha。但是对于L2来说,第一个模型的惩罚项是 2alpha,但第二个模型的是4alpha。可以看出,系数之和为常数时,各系数相等时惩罚是最小的,所以才有了L2会让各个系数趋于相同的特点。
  • 可以看出,L2正则化对于特征选择来说一种稳定的模型,不像L1正则化那样,系数会因为细微的数据变化而波动。所以L2正则化和L1正则化提供的价值是不同的,L2正则化对于特征理解来说更加有用:表示能力强的特征对应的系数是非零。
  • 因此,一句话总结就是:L1会趋向于产生少量的特征,而其他的特征都是0,而L2会选择更多的特征,这些特征都会接近于0。 Lasso在特征选择时候非常有用,而 Ridge就只是一种规则化而已。

你可能感兴趣的:(L1正则化和L2正则化有什么区别)