个人笔记——机器学习.最小二乘法


最小二乘法(LSM)学习与理解


1.方法意义

最小二乘法是一种用来求解回归模型的方法,通过实现使残差平方和最小化的目标来确保模型具有最佳的拟合度。

2.方法的数学推导

X=(X_{1},X_{2},X_{3}...X_{n})^{'}           (1)    (X_{i}为m维向量)

x=(x_{1},x_{2},x_{3}...x_{n})^{'}                 (2)

\hat{\beta}=(\beta_{1},\beta_{2},\beta_{3}...\beta_{n})                  (3)

\hat{b}=(b,b,b...b_{m})                         (4)

Y=(y_{1},y_{2},y_{3}...y_{m})                  (5)

\hat{Y}=\hat{\beta}\times X+\hat{b}                         (6)

RSS=f(\beta_{i},b_{i})=\sum_{i=1}^{m}(\hat{y}_{i}-y_{i})^2 =\sum_{i=1}^{m}(\hat{\beta}\times x_{i} +b -y_{i})^2               (7)

建立目标函数:Min(f(\beta_{i},b_{i}))

f(\beta_{i},b_{i})分别求\beta}_{i}b}_{i}的偏导:\frac{\partial f}{\partial \hat{\beta}}=\frac{\partial f}{\partial b}=0                                   (8)

以一维的\beta_{0}为例,由上述等式可以得到两组方程:

\sum_{i=1}^{m}y_{i}=mb+\beta{_0}\sum_{i=1}^{m} x_{i}                         (9)

\sum_{i=1}^{m}y_{i}x_{i}=b\sum_{i=1}^{m}x_{i}+\beta_{0}\sum_{i=1}^{m} x_{i}^2              (10)

可分别求出:

\beta_0=\frac{\sum_{i=1}^{m}(x_{i}-\bar{x})(y_{i}-\bar{y})}{\sum_{i=1}^{m}(x_{i}-\bar{x})^2}                      (11)

b=\frac{1}{m}(\sum_{i=1}^{m}y_{i}-\beta_{0}\sum_{i=1}^{m}x_{i})=\bar{y}-\beta_0\bar{x}      (12)

3.矩阵表达

多元回归模型系数众多,利用矩阵可简洁表达。

Y=XB=\begin{bmatrix} 1 & x_{11} &...&x_{n1} \\ 1& ...& ...&...\\ 1& x_{1m}&... &x_{nm} \end{bmatrix}\begin{bmatrix} b\\ \beta_1\\... \\ \beta_n \end{bmatrix}                 (1)

X^TY=X^TXB                                                       (2)

(X^TX)^{-1}X^TY=(X^TX)^{-1}X^TXB=B              (3)

 (推导过程可参考https://blog.csdn.net/monsterhoho/article/details/46753673和张贤达教授《矩阵分析》)

参考文献:《atistical and Econometric Methods for Transportation Data》,Simon P. Washington

                 《矩阵分析》,张贤达

你可能感兴趣的:(ML)