解析法求线性回归的最小二乘估计

我们希望学习一个最优的线性回归的模型参数 w \pmb w ww,使用经验风险最小化(也叫最小二乘法)来进行参数估计

有两种方法可以求解参数:解析法数值优化法,在此我们只描述解析法的求解

风险函数:

R ( w ) = 1 2 ∑ n = 1 N ( y ( n ) − w T x ( n ) ) 2 R(\pmb w)=\frac{1}{2}∑_{n=1}^{N}(\pmb y^{(n)}-\pmb{w}^T\pmb x^{(n)})^2 R(ww)=21n=1N(yy(n)wwTxx(n))2

           = 1 2 ∣ ∣ y − X T w ∣ ∣ 2 ~~~~~~~~~~=\frac{1}{2}||\pmb y - \pmb X^T \pmb w||^2           =21∣∣yyXXTww2

           = 1 2 ( y − X T w ) T ( y − X T w ) ~~~~~~~~~~=\frac{1}{2} (\pmb y-\pmb X^T\pmb w)^T (\pmb y-\pmb X^T\pmb w)           =21(yyXXTww)T(yyXXTww)

对风险函数求微分:

d R ( w ) = − 1 2 ( X T d w ) T ( y − X T w ) − 1 2 ( y − X T w ) T ( X T d w ) dR(\pmb w)=-\frac{1}{2}(\pmb X^Td\pmb w)^T(\pmb y-\pmb X^T\pmb w)-\frac{1}{2}(\pmb y-\pmb X^T\pmb w)^T(\pmb X^Td\pmb w) dR(ww)=21(XXTdww)T(yyXXTww)21(yyXXTww)T(XXTdww)

             = − ( y − X T w ) T X T d w ~~~~~~~~~~~~=-(\pmb y-\pmb X^T\pmb w)^T\pmb X^Td\pmb w             =(yyXXTww)TXXTdww

又因为:

d R ( w ) = δ R ( w ) T δ w d w dR(\pmb w)=\frac{δR(\pmb{w})^T}{δ\pmb w}d\pmb w dR(ww)=δwwδR(ww)Tdww

所以可以得到风险函数的导数:

δ R ( w ) δ w = − X ( y − X T w ) \frac{δR(\pmb w)}{δ\pmb w}=-\pmb X(\pmb y-\pmb X^T\pmb w) δwwδR(ww)=XX(yyXXTww)

令:

δ R ( w ) δ w = 0 \frac{δR({\pmb{w}})}{δ\pmb w}=0 δwwδR(ww)=0

解得:

w ∗ = ( X X T ) − 1 X y \pmb w^*=(\pmb{XX}^T)^{-1}\pmb X\pmb y ww=(XXXXT)1XXyy

你可能感兴趣的:(#,人工智能基础,#,ML经典模型,线性回归,机器学习)