机器学习系列(二)——回归模型

回归(Regression)模型是指机器学习方法学到的函数的输出是连续实数值,回归模型可以用于预测或者分类,这篇博客中主要整理用于预测的线性回归模型和多项式回归模型。

线性回归

按照机器学习建模的三个步骤,首先需要确定选用的模型,这里就是线性回归(Linear regression)模型,然后将其形式化表达:

h(x)=w1x1+w2x2++wnxn+b h ( x ) = w 1 x 1 + w 2 x 2 + ⋯ + w n x n + b

其中, x1,x2,,xn x 1 , x 2 , ⋯ , x n 是样本数据的n维属性描述,每一组 w w b b 能确定一个不一样的 h(x) h ( x ) w w b b 的所有取值组合就构成了可选函数集合,我们的任务就是要从这个函数集合中选出“最好”的那个函数。
对于训练数据集D描述如下: D={(x(1),y(1)),(x(2),y(2)),,(x(m),y(m))} D = { ( x ( 1 ) , y ( 1 ) ) , ( x ( 2 ) , y ( 2 ) ) , ⋯ , ( x ( m ) , y ( m ) ) } ,其中 x(i)=(x(i)1;x(i)2;;x(i)n) x ( i ) = ( x 1 ( i ) ; x 2 ( i ) ; ⋯ ; x n ( i ) ) 是样本的n维特征向量表示, y(i)R y ( i ) ∈ R 是样本标记。线性回归的目标是学得一个线性函数以尽可能准确的预测实值输出标记。
因此我们需要确定一个衡量标准用以度量一个函数的好坏,也就是选择合适的损失函数(Loss Function)。根据线性回归的目标,我们只需要度量 h(x) h ( x ) y y 之间的差距,均方误差(Mean Square Error,MSE)是回归任务中最常用的损失函数。

L(h)=i=1m(y(i)h(x(i)))2 L ( h ) = ∑ i = 1 m ( y ( i ) − h ( x ( i ) ) ) 2

因为 h h 是关于 w,b w , b 的函数,所以上式也可以写成

L(w,b)=i=1m(y(i)(wTx(i)+b))2 L ( w , b ) = ∑ i = 1 m ( y ( i ) − ( w T x ( i ) + b ) ) 2

能够让 L L 最小的 w,b w , b 所确定的函数就是我们要找的最好的那个函数,记为 w,b w ∗ , b ∗

w,b==argminw,bL(w,b)argminw,bi=1m(y(i)(wTx(i)+b))2 w ∗ , b ∗ = a r g min w , b L ( w , b ) = a r g min w , b ∑ i = 1 m ( y ( i ) − ( w T x ( i ) + b ) ) 2

现在需要选择一种优化算法从众多 w,b w , b 中找出 w,b w ∗ , b ∗ ,常用的方法有梯度下降算法(Gradient Descent)和最小二乘法(Least Square Method,LSM)。

梯度下降法

对多元函数的每一个变量分别求 偏导数,并将结果写成向量形式,就是梯度。比如函数 f(x,y) f ( x , y ) ,分别对 x,y x , y 求偏导数, (f/x,f/y)T ( ∂ f / ∂ x , ∂ f / ∂ y ) T 就是梯度。从几何意义上讲,梯度是函数在该点变化最快的方向,因此沿着梯度的反方向,会更加容易找到函数的最小值点。下图是梯度下降的一个直观解释

机器学习系列(二)——回归模型_第1张图片

比如我们在一座大山的某个位置想要到达山脚下,由于我们不知道怎么下山,于是决定走一步算一步,每次走到一个位置后,求解当前位置的梯度,沿着梯度的负方向,也就是当前最陡峭的方向向下走,直到走到梯度为零的位置。当然这样走下去,有可能不能走到山脚,而是到了某一个局部山峰低处。
因此梯度下降不一定能够找到全局最优解,有可能是一个局部最优解,如果损失函数是凸函数,梯度下降算法就一定能找到全局最优解。
梯度下降算法步骤如下:

  • 随机选取一个初始值 w0 w 0
  • 计算 dLdw|w=w0 d L d w | w = w 0 w1=w0ηdLdw|w=w0 w 1 = w 0 − η d L d w | w = w 0 ,其中 η η 是学习速率,决定了每一次调整的步长

Lw=i=1m2(y(i)(b+wTx(i)))(x(i))Lb=i=1m2(y(i)(b+wTx(i)))(1) ∂ L ∂ w = ∑ i = 1 m 2 ( y ( i ) − ( b + w T x ( i ) ) ) ( − x ( i ) ) ∂ L ∂ b = ∑ i = 1 m 2 ( y ( i ) − ( b + w T x ( i ) ) ) ( − 1 )

迭代第二步多次直至梯度为零,或者损失达到允许范围,或者达到迭代次数。

最小二乘法

同样可以采用最小二乘法来对 w,b w , b 进行估计,最小二乘法直接求解得到解析解。为了方便讨论,我们把 w,b w , b 合并组成一个向量 w^=(w;b) w ^ = ( w ; b ) ,同时给每一个样本增加一个恒定属性值1。同时,把数据集D表示成一个 m(n+1) m ∗ ( n + 1 ) 大小的矩阵 X X

X=x(1)1x(2)1x(m)1x(1)2x(2)2x(m)2x(1)nx(2)nx(m)n111 X = ( x 1 ( 1 ) x 2 ( 1 ) ⋯ x n ( 1 ) 1 x 1 ( 2 ) x 2 ( 2 ) ⋯ x n ( 2 ) 1 ⋮ ⋮ ⋱ ⋮ ⋮ x 1 ( m ) x 2 ( m ) ⋯ x n ( m ) 1 )

再把标记也写成向量形式 y=(y1;y2;;ym) y = ( y 1 ; y 2 ; ⋯ ; y m ) ,则类似的有

h=Xw^ h = X w ^

损失函数

L=12(yXw^)T(yXw^) L = 1 2 ( y − X w ^ ) T ( y − X w ^ )

w^ w ^ 求导得到

Lw^=XT(yXw^) ∂ L ∂ w ^ = X T ( y − X w ^ )

令上式等于零,可得 w^ w ^ 最优解的闭式解

XT(yXw^)=0XTyXTXw^=0XTXw^=XTyw^=(XTX)1XTy X T ( y − X w ^ ) = 0 ⇒ X T y − X T X w ^ = 0 ⇒ X T X w ^ = X T y w ^ = ( X T X ) − 1 X T y

其中, (XTX)1 ( X T X ) − 1 (XTX) ( X T X ) 的逆矩阵,可能存在 (XTX) ( X T X ) 不是满秩矩阵,常见的作法是引入正则化(regularization)项。(正则化将专门放在一篇博客记录)

梯度下降和最小二乘法优缺点

1、梯度下降算法适用于所有的最优化问题,但是最小二乘法只适用于线性问题,当回归模型不是线性模型时,需要通过一些技巧转化为线性才能使用最小二乘法。
2、最小二乘法需要求解 (XTX)1 ( X T X ) − 1 ,可能存在矩阵 (XTX) ( X T X ) 没有逆矩阵的情况,这时需要加入正则化项,或者删除一些冗余特征,让 (XTX) ( X T X ) 的行列式不为0,然后继续使用最小二乘法。另外,当样本量很大时,求解逆矩阵将是一个非常耗时的过程,使用梯度下降算法将比较有优势。
3、当样本数据不是很大,且存在解析解时,最小二乘法比起梯度下降算法计算速度更快。

多项式回归

有些样本数据用线性回归拟合时可能不是特别恰当,这时候可以尝试采用多项式回归,如下图所示,是一个房屋价格与房屋面积的样本数据集,可以明显发现所有数据点并不分布在某一条直线附近,这时候可以考虑尝试二次函数或者三次函数

机器学习系列(二)——回归模型_第2张图片

对于多项式回归,可以将 x2,x3 x 2 , x 3 也看作是一个新的属性,这时多项式回归就和线性回归一样了,因此多项式回归的训练方法依旧和线性回归一样。
需要注意的是,能够选择简单的线性模型时就不要选择相对复杂的多项式模型。

参考文献

李宏毅主页

你可能感兴趣的:(机器学习)