机器学习算法进阶——回归算法

回归算法——理论、实践

  • 手写理论
  • 线性回归理论
    • 线性回归
      • 理论基础:最小二乘、正则化、过拟合
      • 梯度下降算法
      • 局部加权回归
    • Logistic回归、Soft-max回归
      • Logistic回归
      • 多分类:Softmax回归
  • 回归实践
    • AUC 分类器指标

手写理论

机器学习算法进阶——回归算法_第1张图片机器学习算法进阶——回归算法_第2张图片
机器学习算法进阶——回归算法_第3张图片机器学习算法进阶——回归算法_第4张图片机器学习算法进阶——回归算法_第5张图片机器学习算法进阶——回归算法_第6张图片
机器学习算法进阶——回归算法_第7张图片

线性回归理论

线性回归

y = ax+b机器学习算法进阶——回归算法_第8张图片

y i = θ T x ( i ) + ε ( i ) y_i = \theta^Tx^{(i)}+\varepsilon^{(i)} yi=θTx(i)+ε(i)

误差 ε ( i ) ( 1 ≤ i ≤ m ) \varepsilon^{(i)}(1\leq i \leq m) ε(i)(1im)是独立同分布的,服从均值为 μ \mu μ,方差为 σ 2 \sigma^2 σ2的高斯(正态)分布。

最小二乘法: m i n ∑ i = 1 n ε ′ ε min \sum_{i=1}^n \varepsilon' \varepsilon mini=1nεε

理论基础:最小二乘、正则化、过拟合

θ \theta θ的解析式的求解过程:
机器学习算法进阶——回归算法_第9张图片
最小二乘意义下的参数最优解:
机器学习算法进阶——回归算法_第10张图片加入 λ \lambda λ扰动后:
机器学习算法进阶——回归算法_第11张图片线性回归的复杂程度惩罚因子:
机器学习算法进阶——回归算法_第12张图片PS:L1正则使得变量的系数都尽可能的小,趋近于0,可用来做特征选择。

正则项与防止过拟合:( λ > 0 , ρ ϵ [ 0 , 1 ] \lambda>0,\rho\epsilon[0,1] λ>0,ρϵ[0,1])
机器学习算法进阶——回归算法_第13张图片机器学习与数据使用:
机器学习算法进阶——回归算法_第14张图片PS:在训练数据上,每给定一个 λ \lambda λ,都会得到相应的 θ \theta θ;在验证数据上(为了选定超参 λ \lambda λ),用在前面训练数据上得到的 ( θ , λ ) (\theta,\lambda) (θ,λ)组合,得到每组的误差值,从而可以得到最优超参的应用于测试数据。

Moore-Penrose广义逆矩阵(伪逆)
机器学习算法进阶——回归算法_第15张图片SVD计算矩阵的广义逆:
机器学习算法进阶——回归算法_第16张图片PS:计算出矩阵A的伪逆,乘以 y 就可以得到 θ \theta θ

梯度下降算法

目标函数: J ( θ ) = 1 2 ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(\theta)=\frac{1}{2}\sum_{i=1}^m(h_{\theta}(x^{(i)})-y^{(i)})^2 J(θ)=21i=1m(hθ(x(i))y(i))2
机器学习算法进阶——回归算法_第17张图片梯度方向:
机器学习算法进阶——回归算法_第18张图片批量梯度下降算法(BGD):
机器学习算法进阶——回归算法_第19张图片

机器学习算法进阶——回归算法_第20张图片

批量梯度下降图示

随机梯度下降(SGD):
机器学习算法进阶——回归算法_第21张图片
折中:mini-batch (SGD)最常用的
机器学习算法进阶——回归算法_第22张图片
【衡量指标】
机器学习算法进阶——回归算法_第23张图片

局部加权回归

机器学习算法进阶——回归算法_第24张图片

∑ i ω i ( y i − θ T x i ) \sum_i\omega^{i}(y^i-\theta^Tx^i) iωi(yiθTxi)

权值的设置:
机器学习算法进阶——回归算法_第25张图片

Logistic回归、Soft-max回归

机器学习算法进阶——回归算法_第26张图片

Logistic回归

机器学习算法进阶——回归算法_第27张图片Logistic 参数估计:
机器学习算法进阶——回归算法_第28张图片
对数似然函数:
在这里插入图片描述机器学习算法进阶——回归算法_第29张图片参数的迭代:机器学习算法进阶——回归算法_第30张图片PS:线性回归是假定模型服从高斯分布,利用最大似然估计(MLE)推导的,Logistic回归是假定模型服从二项分布,利用最大似然估计推导的。

同样,利用伯努利分布、泊松分布也能得到相应的模型,这类模型称为广义的线性模型(GLM)。

对数线性模型:机器学习算法进阶——回归算法_第31张图片Logictic回归的损失: y i ϵ ( − 1 , 1 ) y^i \epsilon{(-1,1)} yiϵ(1,1)
机器学习算法进阶——回归算法_第32张图片NLL:负对数似然
Logistic回归:沿似然函数正梯度上升;维度提升

多分类:Softmax回归

机器学习算法进阶——回归算法_第33张图片

回归实践

AUC 分类器指标

机器学习算法进阶——回归算法_第34张图片
Receiver Operating Characteristic(AUC)
Area Under Curve
机器学习算法进阶——回归算法_第35张图片
以0.1的错误率换取0.8的正确率,ROC曲线下的面积在[0.5,1]之间,[0,0.5]之间模型没有意义,0.5说明模型是随机做的,1说明模型分类正确率100%。ROC曲线衡量了分类器的分类性能。

你可能感兴趣的:(机器学习算法)