计量经济学复习笔记(二):一元线性回归(下)

计量经济学复习笔记(二):一元线性回归(下)

回顾上文,我们通过OLS推导出了一元线性回归的两个参数估计,得到了以下重要结论:
β ^ 1 = ∑ x i y i ∑ x i 2 , β ^ 0 = Y ˉ − β ^ 1 X ˉ . \hat\beta_1=\frac{\sum x_iy_i}{\sum x_i^2},\quad \hat\beta_0=\bar Y-\hat\beta_1\bar X. β^1=xi2xiyi,β^0=Yˉβ^1Xˉ.
注意总体回归模型是 Y = β 0 + β 1 X + μ Y=\beta_0+\beta_1X+\mu Y=β0+β1X+μ,同时我们还假定了 μ ∼ N ( 0 , σ 2 ) \mu\sim N(0,\sigma^2) μN(0,σ2),这使得整个模型都具有正态性。这种正态性意味着许多,我们能用数理统计的知识得到点估计的优良性质,完成区间估计、假设检验等,本文就来详细讨论上述内容。

文章目录

  • 计量经济学复习笔记(二):一元线性回归(下)
    • 1、BLUE
    • 2、参数分布与区间估计
    • 3、参数的假设检验

1、BLUE

我们选择OLS估计量作为一元线性回归的参数估计量,最主要的原因就是它是最小方差线性无偏估计(Best Linear Unbiased Estimator),这意味着它们是:

  1. 线性的。
  2. 无偏的。
  3. 最小方差的。

不过,光给你这三个词,你可能会对定义有所困扰——比如,关于什么线性?又关于什么是无偏的?我们接下来就对OLS估计量的BLUE性详细讨论,包括简单证明。原本我认为,证明在后面再给出会更合适,引入也更顺畅,但是我们接下来要讨论的许多,都有赖于OLS估计量的BLUE性,因此我还是决定将这部分内容放在这里。

首先是线性性,它指的是关于观测值 Y i Y_i Yi线性,这有什么意义呢?注意到,在之前的讨论中,我们总讨论在给定 X X X的取值状况下的其他信息,如 μ \mu μ的条件期望、方差协方差等,因此我们往往会在这部分的讨论中将 X X X视为常数(而不是随机变量)看待,这会带来一些好处。而因为 μ ∼ N ( 0 , σ 2 ) \mu\sim N(0,\sigma^2) μN(0,σ2) μ i \mu_i μi是从 μ \mu μ中抽取的简单随机样本,且 μ i \mu_i μi X i X_i Xi无关,所以由正态分布的性质,有
Y i ∣ X i ∼ N ( β 0 + β 1 X i , σ 2 ) . Y_i|X_i\sim N(\beta_0+\beta_1X_i,\sigma^2). YiXiN(β0+β1Xi,σ2).
实际上,由于参数真值 β 1 , β 1 \beta_1,\beta_1 β1,β1是常数,所以每一个 Y i Y_i Yi在给定了 X i X_i Xi的水平下,都独立地由 μ i \mu_i μi完全决定,而 μ i \mu_i μi序列不相关(在正态分布的情况下独立),所以 Y i Y_i Yi之间也相互独立。这样,如果有一个统计量是 Y i Y_i Yi的线性组合,那么由正态分布的可加性,这个统计量就自然服从正态分布,从而我们可以很方便地对其进行参数估计、假设检验等。

所以现在我们来验证 β ^ 0 , β ^ 1 \hat\beta_0,\hat\beta_1 β^0,β^1 Y i Y_i Yi的线性组合,先从比较容易处理的 β ^ 1 \hat\beta_1 β^1开始,我们已经算出了
β ^ 1 = ∑ x i y i ∑ x i 2 , \hat\beta_1=\frac{\sum x_iy_i}{\sum x_i^2}, β^1=xi2xiyi,
为了在这个式子中出现 Y i Y_i Yi,只要把 y i y_i yi打开就行了,也就是
β ^ 1 = ∑ x i ( Y i − Y ˉ ) ∑ x i 2 = ∑ x i Y i − Y ˉ ∑ x i ∑ x i 2 . \hat\beta_1=\frac{\sum x_i(Y_i-\bar Y)}{\sum x_i^2}=\frac{\sum x_i Y_i-\bar Y\sum x_i}{\sum x_i^2}. β^1=xi2xi(YiYˉ)=xi2xiYiYˉxi.

注意到 ∑ x i = ∑ ( X i − X ˉ ) = 0 \sum x_i=\sum(X_i-\bar X)=0 xi=(XiXˉ)=0,所以有
β ^ 1 = ∑ i = 1 n x i ∑ x i 2 Y i = d e f ∑ i = 1 n k i Y i , k i = x i ∑ x i 2 . \hat\beta_1=\sum_{i=1}^n\frac{x_i}{\sum x_i^2}Y_i\xlongequal{def}\sum_{i=1}^nk_iY_i,\quad k_i=\frac{x_i}{\sum x_i^2}. β^1=i=1nxi2xiYidef i=1nkiYi,ki=xi2xi.
这就将 β ^ 1 \hat\beta_1 β^1表示成了 Y i Y_i Yi的线性组合。同理对于 β ^ 0 \hat\beta_0 β^0,由于
β ^ 0 = Y ˉ − X ˉ β ^ 1 = ∑ i = 1 n Y i n − X ˉ ∑ i = 1 n k i Y i = ∑ i = 1 n ( 1 n − X ˉ k i ) Y i = d e f ∑ i = 1 n w i Y i . \hat\beta_0=\bar Y-\bar X\hat \beta_1=\sum_{i=1}^n\frac{Y_i}n-\bar X\sum_{i=1}^nk_iY_i=\sum_{i=1}^n\left(\frac1n-\bar Xk_i \right)Y_i\xlongequal{def}\sum_{i=1}^nw_iY_i. β^0=YˉXˉβ^1=i=1nnYiXˉi=1nkiYi=i=1n(n1Xˉki)Yidef i=1nwiYi.
所以 β ^ 0 \hat\beta_0 β^0也是 Y i Y_i Yi的线性组合。进一步地由于 Y i Y_i Yi独立地服从正态分布,所以 β ^ 1 , β ^ 0 \hat\beta_1,\hat\beta_0 β^1,β^0也服从正态分布。

无偏性指的是 β ^ 0 , β ^ 1 \hat\beta_0,\hat\beta_1 β^0,β^1 β 0 , β 1 \beta_0,\beta_1 β0,β1的无偏估计——理解概念, β 0 \beta_0 β0 β 1 \beta_1 β1是总体回归函数中的参数,在给定问题的情形下是一个待估参数,因此也是常数。我们已经验证了 β ^ 0 , β ^ 1 \hat\beta_0,\hat\beta_1 β^0,β^1都是独立正态分布 Y i Y_i Yi的线性组合,因此它们的均值就很好求得,基于 Y i ∣ X i ∼ N ( β 0 + β 1 X i , σ 2 ) Y_i|X_i\sim N(\beta_0+\beta_1X_i,\sigma^2) YiXiN(β0+β1Xi,σ2)的事实,有
E ( β ^ 1 ) = ∑ i = 1 n x i E ( Y i ) ∑ x i 2 = ∑ i = 1 n x i ( β 0 + β 1 X i ) ∑ x i 2 = β 0 ∑ x i ∑ x i 2 + β 1 ∑ x i X i ∑ x i 2 , E ( β ^ 0 ) = ∑ i = 1 n ( 1 n − X ˉ x i ∑ x i 2 ) ( β 0 + β 1 X i ) = β 0 + β 1 X ˉ − β 1 X ˉ ∑ x i X i ∑ x i 2 , \mathbb E(\hat\beta_1)=\sum_{i=1}^n\frac{x_i\mathbb E(Y_i)}{\sum x_i^2}=\sum_{i=1}^n\frac{x_i(\beta_0+\beta_1X_i)}{\sum x_i^2}=\frac{\beta_0\sum x_i}{\sum x_i^2}+\frac{\beta_1\sum x_iX_i}{\sum x_i^2},\\ \mathbb E(\hat\beta_0)=\sum_{i=1}^n\left(\frac1n-\frac{\bar Xx_i}{\sum x_i^2} \right)(\beta_0+\beta_1X_i)=\beta_0+\beta_1\bar X-\beta_1\bar X\frac{\sum x_iX_i}{\sum x_i^2}, E(β^1)=i=1nxi2xiE(Yi)=i=1nxi2xi(β0+β1Xi)=xi2β0xi+xi2β1xiXi,E(β^0)=i=1n(n1xi2Xˉxi)(β0+β1Xi)=β0+β1Xˉβ1Xˉxi2xiXi,
由于 ∑ x i X i = ∑ x i ( x i + X ˉ ) = ∑ x i 2 + X ˉ ∑ x i = ∑ x i 2 \sum x_iX_i=\sum x_i(x_i+\bar X)=\sum x_i^2+\bar X\sum x_i=\sum x_i^2 xiXi=xi(xi+Xˉ)=xi2+Xˉxi=xi2 ∑ x i = 0 \sum x_i=0 xi=0,所以
E ( β ^ 1 ) = β 1 , E ( β ^ 0 ) = β 0 . \mathbb E(\hat\beta_1)=\beta_1,\quad \mathbb E(\hat\beta_0)=\beta_0. E(β^1)=β1,E(β^0)=β0.
这里,我们得到了参数估计量 β ^ 1 , β ^ 0 \hat\beta_1,\hat\beta_0 β^1,β^0的均值,说明了它们是无偏估计。

最后最小方差性,指的是在所有线性无偏估计中,参数估计量 β ^ 1 , β ^ 0 \hat\beta_1,\hat\beta_0 β^1,β^0是方差最小的(注意线性无偏估计的限定条件)。为证明 β ^ 1 \hat\beta_1 β^1是最小方差的,我们可以另外构造一个线性无偏估计量,记作
β ^ 1 ∗ = ∑ i = 1 n ( k i + d i ) Y i = β ^ 1 + ∑ i = 1 n d i Y i , \hat\beta_1^*=\sum_{i=1}^n(k_i+d_i)Y_i=\hat\beta_1+\sum_{i=1}^nd_iY_i, β^1=i=1n(ki+di)Yi=β^1+i=1ndiYi,
无偏性要求使得
E ( ∑ i = 1 n d i Y i ) = ∑ i = 1 n d i ( β 0 + β 1 X i ) = 0 , \mathbb E\left(\sum_{i=1}^n d_iY_i\right)=\sum_{i=1}^nd_i(\beta_0+\beta_1X_i)=0, E(i=1ndiYi)=i=1ndi(β0+β1Xi)=0,
β 0 , β 1 \beta_0,\beta_1 β0,β1的未知性,我们必须保证 ∑ d i = ∑ d i X i = 0 \sum d_i=\sum d_iX_i=0 di=diXi=0,也就是 ∑ d i ( X i − X ˉ ) = ∑ d i x i = 0 \sum d_i(X_i-\bar X)=\sum d_ix_i=0 di(XiXˉ)=dixi=0。所以
D ( β ^ 1 ∗ ) = D ( β ^ 1 + ∑ i = 1 n d i Y i ) = D ( β ^ 1 ) + D ( ∑ i = 1 n d i Y i ) + 2 C o v ( ∑ i = 1 n k i Y i , ∑ i = 1 n d i Y i ) = D ( β ^ 1 ) + D ( ∑ i = 1 n d i Y i ) + 2 σ 2 ∑ i = 1 n k i d i = D ( β ^ 1 ) + D ( ∑ i = 1 n d i Y i ) + 2 σ 2 ∑ x i d i ∑ x i 2 = D ( β ^ 1 ) + D ( ∑ i = 1 n d i Y i ) + 0 ≥ D ( β ^ 1 ) . \begin{aligned} \mathbb D(\hat\beta_1^*)=&\mathbb D\left(\hat\beta_1+\sum_{i=1}^nd_iY_i \right)\\ =&\mathbb D(\hat\beta_1)+\mathbb D\left(\sum_{i=1}^nd_iY_i \right)+2{\rm Cov}\left(\sum_{i=1}^nk_iY_i,\sum_{i=1}^nd_iY_i \right)\\ =&\mathbb D(\hat\beta_1)+\mathbb D\left(\sum_{i=1}^nd_iY_i \right)+2\sigma^2\sum_{i=1}^nk_id_i\\ =&\mathbb D(\hat\beta_1)+\mathbb D\left(\sum_{i=1}^nd_iY_i \right)+2\sigma^2\frac{\sum x_id_i}{\sum x_i^2}\\ =&\mathbb D(\hat\beta_1)+\mathbb D\left(\sum_{i=1}^nd_iY_i \right)+0\\ \ge& \mathbb D(\hat\beta_1). \end{aligned} D(β^1)=====D(β^1+i=1ndiYi)D(β^1)+D(i=1ndiYi)+2Cov(i=1nkiYi,i=1ndiYi)D(β^1)+D(i=1ndiYi)+2σ2i=1nkidiD(β^1)+D(i=1ndiYi)+2σ2xi2xidiD(β^1)+D(i=1ndiYi)+0D(β^1).
同理,为证明 β ^ 0 \hat\beta_0 β^0是最小方差的,同样构造一个 β ^ 0 ∗ = ∑ ( w i + d i ) Y i \hat\beta_0^*=\sum(w_i+d_i)Y_i β^0=(wi+di)Yi,无偏性要求也会使得 ∑ w i d i = 0 \sum w_id_i=0 widi=0,仿照 β ^ 1 \hat\beta_1 β^1的步骤就证明了 D ( β ^ 0 ∗ ) ≥ D ( β ^ ) \mathbb D(\hat\beta_0^*)\ge \mathbb D(\hat\beta) D(β^0)D(β^)

由线性性,我们还可以计算出参数估计量的方差,因为我们要用 β ^ 1 \hat\beta_1 β^1 β ^ 0 \hat\beta_0 β^0估计真值 β 1 , β 0 \beta_1,\beta_0 β1,β0,既然它们是无偏的,它们的方差越小,估计结果就越接近我们想要的真值,因此计算它们的方差具有重要意义。
D ( β ^ 1 ) = σ 2 ∑ k i 2 = σ 2 ∑ x i 2 ( ∑ x i 2 ) 2 = σ 2 ∑ x i 2 . D ( β ^ 0 ) = σ 2 ∑ w i 2 = σ 2 ∑ ( 1 n − X ˉ k i ) 2 = σ 2 ∑ ( 1 n 2 − 2 X ˉ k i n + X ˉ 2 k i 2 ) = σ 2 ( 1 n + X ˉ 2 ∑ x i 2 ) = ∑ x i 2 + n X ˉ 2 n ∑ x i 2 σ 2 = ∑ X i 2 n ∑ x i 2 σ 2 . \begin{aligned} \mathbb D(\hat\beta_1)=&\sigma^2\sum k_i^2=\sigma^2\sum\frac{x_i^2}{(\sum x_i^2)^2}=\frac{\sigma^2}{\sum x_i^2}.\\ \mathbb D(\hat\beta_0)=&\sigma^2\sum w_i^2\\ =&\sigma^2\sum\left(\frac1n-\bar Xk_i \right)^2\\ =&\sigma^2\sum\left(\frac1{n^2}-\frac{2\bar Xk_i}{n}+\bar X^2k_i^2 \right)\\ =&\sigma^2\left(\frac1n+\frac{\bar X^2}{\sum x_i^2} \right)\\ =&\frac{\sum x_i^2+n\bar X^2}{n\sum x_i^2}\sigma^2\\ =&\frac{\sum X_i^2}{n\sum x_i^2}\sigma^2. \end{aligned} D(β^1)=D(β^0)======σ2ki2=σ2(xi2)2xi2=xi2σ2.σ2wi2σ2(n1Xˉki)2σ2(n21n2Xˉki+Xˉ2ki2)σ2(n1+xi2Xˉ2)nxi2xi2+nXˉ2σ2nxi2Xi2σ2.
它们的方差都随着分母——自变量的离差平方和的增大而增大,这表明我们的样本容量越大,估计值就会有越高的精度。

2、参数分布与区间估计

结合正态性假定,我们已经确定了参数估计量的均值、方差,就得到了其分布:
β ^ 1 ∼ N ( β 1 , σ 2 ∑ x i 2 ) , β ^ 0 ∼ N ( β 0 , ∑ X i 2 n ∑ x i 2 σ 2 ) . \hat\beta_1\sim N\left(\beta_1,\frac{\sigma^2}{\sum x_i^2} \right),\\ \hat\beta_0\sim N\left(\beta_0,\frac{\sum X_i^2}{n\sum x_i^2}\sigma^2 \right). β^1N(β1,xi2σ2),β^0N(β0,nxi2Xi2σ2).
得到了参数分布以后,我们是不是就可以对参数值给出区间估计了呢?事实上,我们还缺一个关键的参数——随机误差方差 σ 2 \sigma^2 σ2,由于它是未知的,我们还是没法得知方差的具体值,也就不能得到参数的真实分布。因此,我们需要找到一个 σ 2 \sigma^2 σ2的无偏估计。

一个很自然的想法是,用残差项 e e e作为 μ \mu μ的估计,进而估计出 μ \mu μ的唯一参数 σ 2 \sigma^2 σ2,因此先探究 e e e的分布。由于
e i = Y i − ( β ^ 0 + β ^ 1 X i ) = ( β 0 − β ^ 0 ) + ( β 1 − β ^ 1 ) X i + μ i , e_i=Y_i-(\hat\beta_0+\hat\beta_1X_i)=(\beta_0-\hat\beta_0)+(\beta_1-\hat\beta_1)X_i+\mu_i, ei=Yi(β^0+β^1Xi)=(β0β^0)+(β1β^1)Xi+μi,
所以看起来 e i e_i ei也是一系列正态分布的线性组合,但我们是否能得到 e e e服从(条件)正态分布的结论?可以,但并不是直接 β 0 , β 1 \beta_0,\beta_1 β0,β1的直接加和,因为 β 0 \beta_0 β0 β 1 \beta_1 β1的独立性还没有被验证,不要忘了,只有独立正态分布的线性组合才服从正态分布。我们依然可以把 e i e_i ei看成独立正态分布的线性组合,因为 β ^ 0 , β ^ 1 \hat\beta_0,\hat\beta_1 β^0,β^1都是 Y i Y_i Yi的线性组合,进一步是各个 μ i \mu_i μi的线性组合。

事实上,我们还缺少一些关键性的条件: β ^ 0 \hat\beta_0 β^0 β ^ 1 \hat\beta_1 β^1的协方差,还有 β ^ 0 , β ^ 1 \hat\beta_0,\hat\beta_1 β^0,β^1 μ i \mu_i μi的协方差。我们可以稍作计算,得到
C o v ( β ^ 0 , β ^ 1 ) = C o v ( ∑ i = 1 n w i Y i , ∑ i = 1 n k i Y i ) = σ 2 ∑ w i k i = σ 2 ∑ ( 1 n − X ˉ k i ) k i = − σ 2 X ˉ ∑ k i 2 = − σ 2 X ˉ ∑ x i 2 . C o v ( β ^ 1 , μ i ) = k i σ 2 = x i σ 2 ∑ x i 2 , C o v ( β ^ 0 , μ i ) = w i σ 2 = ( 1 n − X ˉ k i ) σ 2 = ∑ x i 2 − n X ˉ x i n ∑ x i 2 σ 2 . \begin{aligned} {\rm Cov}(\hat\beta_0,\hat\beta_1)=&{\rm Cov}\left(\sum_{i=1}^nw_iY_i,\sum_{i=1}^nk_iY_i \right)\\ =&\sigma^2\sum w_ik_i\\ =&\sigma^2\sum\left(\frac1n-\bar X k_i \right)k_i\\ =&-\sigma^2\bar X\sum k_i^2\\ =&-\frac{\sigma^2\bar X}{\sum x_i^2}.\\ {\rm Cov}(\hat\beta_1,\mu_i) =&k_i\sigma^2=\frac{x_i\sigma^2}{\sum x_i^2},\\ {\rm Cov}(\hat\beta_0,\mu_i) =&w_i\sigma^2=\left(\frac1n-\bar Xk_i \right)\sigma^2=\frac{\sum x_i^2-n\bar Xx_i}{n\sum x_i^2}\sigma^2. \end{aligned} Cov(β^0,β^1)=====Cov(β^1,μi)=Cov(β^0,μi)=Cov(i=1nwiYi,i=1nkiYi)σ2wikiσ2(n1Xˉki)kiσ2Xˉki2xi2σ2Xˉ.kiσ2=xi2xiσ2,wiσ2=(n1Xˉki)σ2=nxi2xi2nXˉxiσ2.
有了这些,我们已经可以计算 e i e_i ei的分布,进而用单个 e i e_i ei得到关于 σ 2 \sigma^2 σ2的估计,容易看出,由于均值项都被抵消,最后得到的 e i e_i ei一定是零均值正态的。但只用一个残差是无法估计 σ 2 \sigma^2 σ2的,数理统计的知识告诉我们,为了充分利用样本信息,我们应该使用充分统计量作为估计量。容易知道, e = ( e 1 , ⋯   , e n ) \boldsymbol e=(e_1,\cdots,e_n) e=(e1,,en)服从多维正态分布,但各分量之间相互独立,因此可以用联合密度导出充分统计量。忽略推导细节,这里的充分统计量是 ∑ e i 2 \sum e_i^2 ei2,因此我们应该计算 ∑ e i 2 \sum e_i^2 ei2的分布,从而给出 σ 2 \sigma^2 σ2的估计量,事实上,可以证明
∑ e i 2 σ 2 ∼ χ 2 ( n − 2 ) . \frac{\sum e_i^2}{\sigma^2}\sim \chi^2(n-2). σ2ei2χ2(n2).
证明过程与证明正态分布的样本方差服从卡方分布类似,对于计量经济学略显繁琐,如果需要,我将在后面补充这个命题的证明。现在我们知道了 ∑ e i 2 \sum e_i^2 ei2的分布,自然可以计算均值为 σ 2 ( n − 2 ) \sigma^2(n-2) σ2(n2),所以我们往往会用如下估计量作为 σ 2 \sigma^2 σ2的无偏估计:
σ ^ 2 = ∑ e i 2 n − 2 , ( n − 2 ) σ ^ 2 σ 2 ∼ χ 2 ( n − 2 ) . \hat\sigma^2=\frac{\sum e_i^2}{n-2},\quad \frac{(n-2)\hat\sigma^2}{\sigma^2}\sim \chi^2(n-2). σ^2=n2ei2,σ2(n2)σ^2χ2(n2).
此时再来考虑 β ^ 0 , β ^ 1 \hat\beta_0,\hat\beta_1 β^0,β^1的参数估计问题就简单很多了,因为我们使用卡方统计量来替代方差真值,所以相应的区间估计应当基于 t t t分布构造枢轴量。对于 β ^ 1 \hat\beta_1 β^1,有
β ^ 1 ∼ N ( β 1 , σ 2 ∑ x i 2 ) β ^ 1 − β 1 σ ^ 2 ∑ x i 2 = β ^ 1 − β 1 σ 2 / ∑ x i 2 σ ^ 2 / σ 2 ≃ U ( 0 , 1 ) χ n − 2 2 / ( n − 2 ) ∼ t ( n − 2 ) . \hat\beta_1\sim N\left(\beta_1,\frac{\sigma^2}{\sum x_i^2} \right)\\ \frac{\hat\beta_1-\beta_1}{\sqrt{\frac{\hat\sigma^2}{\sum x_i^2}}}=\frac{\frac{\hat\beta_1-\beta_1}{\sqrt{\sigma^2/\sum x_i^2}}}{\sqrt{\hat\sigma^2/\sigma^2}}\simeq\frac{U(0,1)}{\sqrt{\chi^2_{n-2}/(n-2)}}\sim t(n-2). β^1N(β1,xi2σ2)xi2σ^2 β^1β1=σ^2/σ2 σ2/xi2 β^1β1χn22/(n2) U(0,1)t(n2).
对于 β ^ 0 \hat\beta_0 β^0,类似的证明过程可以得出
β ^ 0 − β 0 ∑ x i 2 − n X ˉ x i n ∑ x i 2 σ ^ 2 ∼ t ( n − 2 ) . \frac{\hat\beta_0-\beta_0}{\sqrt{\frac{\sum x_i^2-n\bar Xx_i}{n\sum x_i^2}\hat\sigma^2}}\sim t(n-2). nxi2xi2nXˉxiσ^2 β^0β0t(n2).
实际上,求 β ^ 0 , β ^ 1 \hat\beta_0,\hat\beta_1 β^0,β^1的参数估计与方差未知情形的正态分布均值估计有异曲同工之妙,只不过样本方差的获得方式不太一样。对于回归参数,我们只要推导出 β ^ 0 , β ^ 1 \hat\beta_0,\hat\beta_1 β^0,β^1的方差,再用残差平方和除以自由度 n − 2 n-2 n2代替方差里的 σ 2 \sigma^2 σ2,就能得到枢轴量,剩下的过程与数理统计的情形一致。

3、参数的假设检验

在数理统计中,我们已经知道,对参数分布族的假设检验与求参数分布族的区间估计,在一定程度上是等价的。具体说来,如果我们已经求得参数 λ \lambda λ的一个置信水平为 1 − α 1-\alpha 1α的区间估计 [ L , S ] [L,S] [L,S],那么对如下假设进行显著性水平为 α \alpha α的双边检验:
test:  H 0 : λ = λ 0 ↔ H 1 : λ ≠ λ 0 , \text{test: }H_0:\lambda=\lambda_0\leftrightarrow H_1:\lambda\ne\lambda_0, test: H0:λ=λ0H1:λ=λ0,
只需要判断是否 λ 0 ∈ [ L , S ] \lambda_0\in[L,S] λ0[L,S]即可,如果 λ 0 ∈ [ L , S ] \lambda_0\in[L,S] λ0[L,S],则接受 H 0 H_0 H0,否则就拒绝 H 0 H_0 H0。如果是单边假设检验,则相应的置信区间就变成同等置信水平的置信限。因此,在我们讨论完 β ^ 0 , β ^ 1 \hat\beta_0,\hat\beta_1 β^0,β^1的分布之后,实际上假设检验问题也讨论完了。

在计量经济学中,我们对单个参数的假设检验,最主要是用于判断变量是否显著的,也就是用 X X X来预测 Y Y Y是否有意义。具体说来,对于回归函数 Y = β 0 + β 1 X + μ Y=\beta_0+\beta_1X+\mu Y=β0+β1X+μ,如果 β 1 = 0 \beta_1=0 β1=0,则我们不需要用 X X X来预测 Y Y Y,因为不论 X X X是什么取值,都对 Y Y Y没什么影响。也就是检验如下的假设:
H 0 : β 1 = 0. H_0:\beta_1=0. H0:β1=0.
另一种假设检验,是检验是否 X , Y X,Y X,Y之间存在完全的比例关系,也就是有没有 Y = β 1 X + μ Y=\beta_1X+\mu Y=β1X+μ,检验的假设是
H 0 : β 0 = 0. H_0:\beta_0=0. H0:β0=0.
如果只是单纯想要知道是否应该接受 H 0 H_0 H0,则假设检验与区间估计无异,但为了衡量接受原假设的信心有多大,或者拒绝原假设的信心有多大,我们都会计算检验的p-value。检验的p-value用通俗的语言解释,就是如果你这个原假设是成立的,那么出现比你的观测值更离谱的观测值的概率是多少,我们用p-value来表示这个概率,如果这个概率很小,就说明你这个观测值已经很难再离谱了,因此我们没有什么接受原假设的理由;如果这个概率很大,就说明你的观测值不离谱,完全可以接受原假设。

具体应用到回归系数的假设检验中,由于我们构造的枢轴量满足 t t t分布,假设枢轴量的观测值是 t 0 t_0 t0,则由于 t t t分布的对称性,用 t α t_{\alpha} tα表示 t t t分布的下 α \alpha α分位数( P ( t < t α ) = α \mathbb P(tP(t<tα)=α),则检验的p-value是
p v = 2 P ( t > ∣ t 0 ∣ ) . p_v=\mathbb 2P(t>|t_0|). pv=2P(t>t0).
如果 p v p_v pv很小,我们就应该拒绝 β i = 0 \beta_i=0 βi=0的原假设,认为回归系数很显著。

现在我们继续分析上文的案例。

计量经济学复习笔记(二):一元线性回归(下)_第1张图片

通过计算,我们得到的回归方程为
Y = 1.3269 X − 160.5962 , Y=1.3269X-160.5962, Y=1.3269X160.5962,
计算残差,得到的残差分别是4.3077、-1.0192、1.6538、-6、-2.3269、-9.6538、14.0192、-0.9808,所以残差平方和为354.4404,方差的估计值是
σ ^ 2 = 354.4404 8 − 2 = 59.0734. \hat\sigma^2=\frac{354.4404}{8-2}=59.0734. σ^2=82354.4404=59.0734.
现在,我们可以了解回归结果中的部分剩余数值。

计量经济学复习笔记(二):一元线性回归(下)_第2张图片

这里:

  • Residual SS就是残差平方和(Residual Sum Square),得到的结果与我们计算相差不多,这是因为我们在计算过程中忽略了部分误差。
  • Residual MS则是残差均方误差,计算所得的就是随机误差方差的估计值。
  • x和_cons后面的t指的是根据假设 β 1 = 0 \beta_1=0 β1=0 β 0 = 0 \beta_0=0 β0=0构造枢轴量的观测值,后面的P>|t|就是检验的p-value,从这里可以看出p-value都大于0.05,所以在显著性水平为0.05的情况下不能拒绝等于0的原假设,认为斜率和截距都不存在。
  • [95% Conf. Interval]指的是置信水平为95%的置信区间,因为这两个参数的置信区间都包含0,所以它们得出了与假设检验一致的结论。

本文我们对回归系数OLS估计量的分布作了进一步的讨论,得到了基础假设下回归系数OLS估计量的分布。同时,通过残差平方和引出了随机误差项方差的估计,进而完成了对参数的区间估计与假设检验。现在留给我们的问题,就剩下回归的效果了,我们应当如何判断回归的效果如何,又应该如何使用我们建立的回归模型?

这些问题,留待下文讨论。

你可能感兴趣的:(计量经济学)