岭回归、Lasso回归与logistic回归

岭回归、Lasso回归与logistic回归_第1张图片
岭回归、Lasso回归与logistic回归_第2张图片
岭回归、Lasso回归与logistic回归_第3张图片

Lasso模型的求解方法:坐标下降法

  • 目标函数形式: min ⁡ β 1 2 N ∑ i = 1 N ( y i − β z i ) 2 + λ ∣ β ∣ ( λ > 0 ) \min\limits_{\beta}{\frac{1}{2N}\sum\limits_{i=1}^{N}(y_i-\beta z_i)^2+\lambda|\beta|}\quad(\lambda>0) βmin2N1i=1N(yiβzi)2+λβ(λ>0)

  • λ > 0 \lambda >0 λ>0时目标函数是凸函数

  • 单变量情况下:
    β ^ = { 1 N < z , y > − λ , if 1 N < z , y > > λ 0 , if 1 N ∣ < z , y > ∣ < λ 1 N < z , y > + λ , if 1 N < z , y > < − λ \hat\beta=\begin{cases} \frac{1}{N}-\lambda,&\text{if$\frac{1}{N}>\lambda$}\\ 0,&\text{if$\frac{1}{N}||<\lambda$}\\ \frac{1}{N}+\lambda,&\text{if$\frac{1}{N}<-\lambda$} \end{cases} β^=N1<z,y>λ,0,N1<z,y>+λ,ifN1<z,y>>λifN1<z,y><λifN1<z,y><λ

  • 用软阈值算子来表示 β ^ = S λ ( 1 N < z , y > ) 其 中 S λ ( x ) = s i g n ( x ) ( ∣ x ∣ − λ ) + t + = { t , t > 0 0 , t ≤ 0 \hat{\beta}=S_{\lambda}(\frac{1}{N})\\ 其中S_{\lambda}(x)=sign(x)(|x|-\lambda)_+\\ t_+=\begin{cases} t,&\text{$t>0$}\\ 0,&\text{$t\leq0$}\end{cases} β^=Sλ(N1<z,y>)Sλ(x)=sign(x)(xλ)+t+={ t,0,t>0t0

  • 推导: min ⁡ β 1 2 N ∑ i = 1 N ( y i − β z i ) 2 + λ ∣ β ∣ ( λ > 0 ) = 1 2 N ∑ i = 1 N y i 2 − 1 N < y , z > β + β 2 2 N ∑ i = 1 N z i 2 + λ ∣ β ∣ = 1 2 − 1 N < y , z > β + β 2 2 + λ ∣ β ∣ \begin{aligned} &\min\limits_{\beta}{\frac{1}{2N}\sum\limits_{i=1}^{N}(y_i-\beta z_i)^2+\lambda|\beta|}\quad(\lambda>0)\\ &= \frac{1}{2N}\sum_{i=1}^{N}{y_i^2-\frac{1}{N}\beta+\frac{\beta^2}{2N}\sum_{i=1}^N{z_i^2}+\lambda|\beta|}\\ &= \frac{1}{2}-\frac{1}{N}\beta+\frac{\beta^2}{2}+\lambda|\beta| \end{aligned} βmin2N1i=1N(yiβzi)2+λβ(λ>0)=2N1i=1Nyi2N1<y,z>β+2Nβ2i=1Nzi2+λβ=21N1<y,z>β+2β2+λβ
    β > 0 \beta>0 β>0
    1 2 − 1 N < y , z > β + β 2 2 + λ β = β ( β 2 − 1 N < y , z > + λ ) β 1 = 0 , β 2 = 2 N < y , z > − 2 λ \begin{aligned} &\frac{1}{2}-\frac{1}{N}\beta+\frac{\beta^2}{2}+\lambda\beta\\ &=\beta(\frac{\beta}{2}-\frac{1}{N}+\lambda)\\ \end{aligned}\\ \beta_1=0,\beta_2=\frac{2}{N}-2\lambda 21N1<y,z>β+2β2+λβ=β(2βN1<y,z>+λ)β1=0,β2=N2<y,z>2λ
      当 β 2 > 0 \beta_2>0 β2>0时,即 1 N < y , z > − λ > 0 , β ^ = 1 N < y , z > − λ \frac{1}{N}-\lambda>0,\hat{\beta}=\frac{1}{N}-\lambda N1<y,z>λ>0,β^=N1<y,z>λ
      当 β 2 < 0 \beta_2<0 β2<0时,即 1 N < y , z > − λ < 0 , β ^ = 0 \frac{1}{N}-\lambda<0,\hat{\beta}=0 N1<y,z>λ<0,β^=0
    β < 0 \beta<0 β<0
    1 2 − 1 N < y , z > β + β 2 2 − λ β = β ( β 2 − 1 N < y , z > − λ ) β 1 = 0 , β 2 = 2 N < y , z > + 2 λ \begin{aligned} &\frac{1}{2}-\frac{1}{N}\beta+\frac{\beta^2}{2}-\lambda\beta\\ &=\beta(\frac{\beta}{2}-\frac{1}{N}-\lambda)\\ \end{aligned}\\ \beta_1=0,\beta_2=\frac{2}{N}+2\lambda 21N1<y,z>β+2β2λβ=β(2βN1<y,z>λ)β1=0,β2=N2<y,z>+2λ
      当 β 2 > 0 \beta_2>0 β2>0时,即 1 N < y , z > + λ > 0 , β ^ = 0 \frac{1}{N}+\lambda>0,\hat{\beta}=0 N1<y,z>λ>0,β^=0
      当 β 2 < 0 \beta_2<0 β2<0时,即 1 N < y , z > + λ < 0 , β ^ = 1 N < y , z > + λ \frac{1}{N}+\lambda<0,\hat{\beta}=\frac{1}{N}+\lambda N1<y,z>λ<0,β^=N1<y,z>λ
    岭回归、Lasso回归与logistic回归_第4张图片
    岭回归只是对系数做了一个全局缩放,而lasso将绝对值小于 λ \lambda λ的系数变成0,这也是lasso可以产生稀疏解的原因。
    多变量情况下:在控制其他系数不变的情况下,更新其中一个 β \beta β,此时问题转换成单变量情况求解,循环迭代直至系数收敛。
    岭回归、Lasso回归与logistic回归_第5张图片

Logistic回归

  • 二分类逻辑回归
    求解方法:牛顿迭代法,梯度下降法
    岭回归、Lasso回归与logistic回归_第6张图片
    岭回归、Lasso回归与logistic回归_第7张图片
    岭回归、Lasso回归与logistic回归_第8张图片
  • 多分类逻辑回归
  1. 一对一:将N个类别两两配对,从而产生N(N-1)/2个二分类任务,在测试阶段,将新样本同时提交给所有分类器,最终分类结果由投票产生。
  2. OvR:每次将一个类的样例作为正例,其他所有类的样例作为反例来训练N个分类器,在测试阶段若仅有一个分类器预测为正类,则对应的类别标记作为最终分类结果,若有多个分类器预测为正类,则通常考虑各分类器的预测置信度,选择置信度最大的类别标记作为分类结果。
  3. softmax回归:使用线性预测器和额外的归一化因子来对某个结果的概率进行归一化然后取对数建模。
    岭回归、Lasso回归与logistic回归_第9张图片
    岭回归、Lasso回归与logistic回归_第10张图片
  4. 改进:以某个类作为基准类
    岭回归、Lasso回归与logistic回归_第11张图片

你可能感兴趣的:(机器学习)