机器学习笔记_回归_4: 最小二乘的改进(1)

局部加权回归

岭回归(ridge regression)RR(稀疏矩阵)

  • 针对多重共线性 |XTX|0 :β^=(XTX+kI)1XTy
    k: =>得到 β 参数的估计族
    有偏估计

  • 岭迹: 参数 k0+β^k线

  • k的选择( MSE(β^) 最小)

PCR和偏最小二乘

补充内容:

Shrinkage Methods

  • 岭回归

岭回归的求解 <=>

β^ridge=argminβ{i=1N(yiβ0j=1pxijβj)2+λj=1pβ2j}

λ:

β^=(XTX+λI)1XTyβ=(XTX)1XTy

若x的列正交则 XTX=I =>

β^ridge=βj^1+λ
岭回归将系数缩小

Lasso

在rr的基础上可以选择变量

  • RR等价于求解

    β^ridge=argminβ{i=1N(yiβ0j=1pxijβj)2+λj=1pβ2j}

  • Lasso等价于

β^lasso=argminβ{i=1N(yiβ0j=1pxijβj)2+λj=1pβj}

=>

β^lasso=argminβ{i=1N(yiβ0j=1pxijβj)2}
subject.to. λj=1p|βj|t

关于lasso和RR的贝叶斯观点

你可能感兴趣的:(机器学习笔记_回归_4: 最小二乘的改进(1))