多元线性回归推导

如果因变量 Y Y Y与自变量 X 1 , X 2 , ⋯   , X p X_1, X_2, \cdots, X_p X1,X2,,Xp之间满足如下关系:
Y = β 0 + β 1 X 1 + ⋯ + β p X p + ϵ Y = \beta_0 + \beta_1X_1 + \cdots + \beta_pX_p + \epsilon Y=β0+β1X1++βpXp+ϵ
其中 β 0 , β 1 , ⋯   , β p \beta_0, \beta_1, \cdots, \beta_p β0,β1,,βp为未知的常值参数, ϵ \epsilon ϵ为随机误差项,满足 E ( ϵ ) = 0 , V a r ( ϵ ) = σ 2 > 0 E(\epsilon) = 0, Var(\epsilon) = \sigma^2 > 0 E(ϵ)=0,Var(ϵ)=σ2>0,则称此模型为线性回归模型。

1、回归假设

多元线性回归有几个重要假设:误差项 ϵ \epsilon ϵ独立同分布变量之间线性无关。用数学式子表示如下:

  • E ( ϵ ) = 0 E(\epsilon)=0 E(ϵ)=0;
  • V a r ( ϵ ) = σ 2 I Var(\epsilon)=\sigma^2 I Var(ϵ)=σ2I;
  • x 1 , x 2 , ⋯   , x p x_1, x_2, \cdots, x_p x1,x2,,xp线性无关。

注意在实际应用中,变量之间常常会存在多重共线性,违背模型假设,影响模型结果。解决方法有很多,比如PCA降维等,最简单的莫过于画个相关分析热力图,然后保留相关性强的多个变量中的一个,其他删去即可。

2、参数估计

记符号如下:
Y = ( Y 1 Y 2 ⋮ Y n ) , X = ( 1 X 11 ⋯ X 1 p 1 X 21 ⋯ X 2 p ⋮ ⋮ ⋮ 1 X n 1 ⋯ X n p ) , β = ( β 0 β 1 ⋮ β p ) , ϵ = ( ϵ 1 ϵ 2 ⋮ ϵ n ) \begin{equation} Y = \left( \begin{array}{c} Y_1 \\ Y_2 \\ \vdots \\ Y_n \end{array} \right) , X = \left( \begin{array}{c} 1 & X_{11} & \cdots & X_{1p} \\ 1 & X_{21} & \cdots & X_{2p} \\ \vdots & \vdots & \quad & \vdots\\ 1 & X_{n1} & \cdots & X_{np} \\ \end{array} \right) , \beta = \left( \begin{array}{c} \beta_0 \\ \beta_1 \\ \vdots \\ \beta_p \end{array} \right) , \epsilon = \left( \begin{array}{c} \epsilon_1 \\ \epsilon_2 \\ \vdots \\ \epsilon_n \end{array} \right) \end{equation} Y= Y1Y2Yn ,X= 111X11X21Xn1X1pX2pXnp ,β= β0β1βp ,ϵ= ϵ1ϵ2ϵn
则线性回归模型可以表示为:
Y = X β + ϵ Y = X\beta + \epsilon Y=+ϵ
其中X为设计矩阵,并且假定是列满秩(变量之间线性无关)的,即 r a n k ( X ) = p + 1 rank(X) = p+1 rank(X)=p+1,误差向量 ϵ \epsilon ϵ满足前文假设条件。

接下来用最小二乘法求解回归方程的参数向量 β \beta β

β \beta β的最小二乘估计即确定 β \beta β,使得误差向量 ϵ = Y − X β \epsilon = Y-X\beta ϵ=Y各元素的平方和达到最小,即
Q ( β ) = ∑ i = 1 n ϵ 2 = ϵ T ϵ = ( Y − X β ) T ( Y − X β ) = Y T Y − 2 β T X T Y + β T X T X β . Q(\beta) = \sum_{i=1}^{n} \epsilon^2 = \epsilon^T \epsilon = (Y-X\beta)^T(Y-X\beta) = Y^TY - 2\beta^TX^TY + \beta^TX^TX\beta. Q(β)=i=1nϵ2=ϵTϵ=(Y)T(Y)=YTY2βTXTY+βTXT.
∂ Q ( β ) ∂ β = − 2 X T Y + 2 X T X β = 0 \frac{\partial Q(\beta)}{\partial \beta} = -2X^TY + 2X^TX\beta = 0 βQ(β)=2XTY+2XT=0,则有:
X T X β = X T Y . X^TX\beta = X^TY. XT=XTY.
所以参数向量 β \beta β的最小二乘估计 β ^ = ( β ^ 0 , β ^ 1 , ⋯   , β ^ p ) T = ( X T X ) − 1 X T Y . \hat{\beta} = (\hat{\beta}_0, \hat{\beta}_1, \cdots, \hat{\beta}_p)^T = (X^TX)^{-1}X^TY. β^=(β^0,β^1,,β^p)T=(XTX)1XTY.
线性回归模型为: f ( x i ^ ) = x i ^ T ( X T X ) − 1 X T Y . f(\hat{x_i}) = \hat{x_i}^T(X^TX)^{-1}X^TY. f(xi^)=xi^T(XTX)1XTY.

3、回归方程及系数检验

在此处挖个坑,有空想起来就填

参考资料:

[1] 《近代回归分析方法》,梅长林.
[2]《机器学习》,周志华.

你可能感兴趣的:(线性回归,机器学习)