计量经济学笔记

目录

1. 绪论

1.1 数据类型

1.2 模型检验

2. 双变量线性回归模型

2.1 回归分析基本概念

2.1.2 总体回归函数 PRF

2.1.3 样本回归函数 SRF

2.2 模型的基本假设

2.2.1 对模型和模型的假定

2.2.2 对随机扰动项的假定

2.3 模型的参数估计

2.3.1 最小二乘法 OLS

2.3.2 极大似然估计

2.4 模型的统计检验

2.4.2 方程显著性检验

2.4.3 变量显著性检验

2.4.4 总体参数的置信区间

2.5 模型的预测

2.5.1 点预测

2.5.2 区间预测

2.6 通过Eviews建立双变量回归模型

3. 多元线性回归模型

3.1 模型的建立与假设

3.1.1 回归函数

3.1.3 模型假设

3.2 模型的参数估计

3.2.1 普通最小二乘估计

3.2.2 参数估计量的性质

3.2.3 随机误差项方差的估计

3.3 非线性处理

3.4 模型的统计检验

3.4.1 拟合优度检验

3.4.2 方程显著性检验 (F检验)

3.4.3 变量显著性检验 (t检验)

3.4.4 参数的置信区间

3.4.5 其他约束条件的检验

3.5 模型的预测

3.5.1 总体均值的预测的置信区间

3.5.2 个值的预测的置信区间

3.6 虚拟变量

4. 模型可能存在的问题与解决方法

4.1 误设定

4.2 多重共线性

4.2.1 分类

4.2.2 产生的原因

4.2.3 多重共线性的后果

4.2.3 初步判断

4.2.4 检验

4.2.5 解决方法

4.3 异方差性

4.3.1 分类

4.3.2 后果

4.3.3 检验

4.3.4 解决方法

4.4 自相关性

4.4.1 自相关的分类

4.4.2 产生的原因

4.4.3 产生的后果

4.4.4 检验

4.4.5 消除的方法

5. 联立方程模型

5.1 行为方程和恒等式

5.1.1 行为方程

5.1.2 恒等式

5.2 几类变量

5.2.1 内生变量

5.2.2 外生变量

5.2.3 前定变量

5.3 模型的形式

5.3.1 结构式

5.3.2 简单式

5.4 联立方程模型的识别

5.4.1 可识别方程

5.4.2 消除模型中的识别

5.4.3 恰好识别and过度识别

5.4.4 识别的条件

5.5 联立方程模型的估计

5.5.1 单方程方法

5.5.2 系统估计方法

6. 时间序列分析 

7. 面板数据模型


1. 绪论

1.1 数据类型

1.1.1 时间序列数据

1.1.2 截面数据

1.1.3 混合数据

1.2 模型检验

1.2.1 经济意义检验

首要的检验。检验参数估计量的符号、大小以及和其他参数估计量之间的关系是否具有经济学意义。

1.2.2 统计学检验

(1) 变量的显著性检验;(2) 方程的显著性检验;(3) 拟合优度检验。

1.2.3 计量经济学检验

(1) 随机误差项的序列相关性检验;(2) 随机误差项的异方差性检验;(3) 解释变量多重共线性检验。

1.2.4 预测检验

(1) 用扩大后的样本重新估计参数,比较新参数估计和原参数估计,并检验二者之间差距的显著性;

(2) 将模型用于样本外一已知值的预测,比较预测值和实际值,并检验二者之间差距的显著性。

2. 双变量线性回归模型

2.1 回归分析基本概念

2.1.1 变量间的关系及研究方法

(1) 确定性关系(函数关系)

研究确定现象中非随机变量之间的关系。比如正方形的体积公式。

(2) 统计依赖关系(相关关系)

研究非确定现象中随机变量之间的关系,主要方法是相关分析和回归分析。

相关分析中,所有变量都被看做随机的,而回归分析对变量的处理存在不对称性,即会区分自变量及因变量,后者被看作随机的,而前者不是。

回归分析是研究一个变量关于一些变量的具体依赖关系的理论,目的是通过自变量的已知值或设定值去估计或预测因变量的(总体)均值。回归分析构成了计量经济学的方法论基础。

2.1.2 总体回归函数 PRF

(1) 函数含义

在给定解释变量Xi的条件下,被解释变量Yi的期望的轨迹称作总体回归线。对应函数称作总体回归函数(PRF):

E(Y|X_i)=f(X_i)

PRF说明了被解释变量Y的平均状态(即总体条件期望)随X的变化的规律。

(2) 函数形式

线性或非线性均可。

线性的定义:a. 模型就变量而言是线性的;b. 模型就参数而言是线性的。

在回归分析中我们考虑的线性指的是b。若将被解释变量看作其解释变量的线性函数时,函数可写作:E(Y|X_i)=\beta _0+\beta _1X

(3) 随机扰动项

u_i=Y_i-E(Y|X_i)

指非确定部分,表明被解释变量除了受解释变量的系统性影响外,也会受到其他因素的随机性影响。

在方程中引入随机扰动项之后,得到总体回归函数PRF的随机设定形式:

Y_i=E(Y|X_i)+u_i=\beta _0+\beta _1X_i+u_i

也称,总体回归模型。

2.1.3 样本回归函数 SRF

思想:用样本估计总体

(1) 样本回归函数

\widehat{Y_i}=f(X_i)=\widehat{\beta _0}+\widehat{\beta _1}X_i

(2) 样本回归模型(样本回归函数的随机形式)

Y_i=\widehat{Y_i}+\widehat{u_i}=\widehat{\beta _0}+\widehat{\beta _1}X_i+e_i

其中,ei称作样本残差或剩余项,可看作ui的样本估计量\widehat{u_i}

2.2 模型的基本假设

2.2.1 对模型和模型的假定

(1) 重复抽样中,解释变量Xi是一组固定数值或虽然是随机数值但是与干扰项ui独立。

(2) 解释变量无测量误差。

(3) 不存在模型设定误差。

2.2.2 对随机扰动项的假定

(1) 期望为0

E(u_i)=0

(2) 同方差性假定

随机扰动项的方差为常数,即 Var(u_i)=\sigma ^2。不满足时模型会产生异方差问题。注意 Var(u_i)=\sigma ^2Var(Y_i)=\sigma ^2 是等价的。

(3) 无自相关假定

Cov(u_i,u_j)=0,(i\neq j)

(4) 扰动项与解释变量不相关

Cov(u_i,X_i)=0

(5) 服从正态分布

u_i\sim N(0,\sigma ^2),相当于 Yi\sim N(\beta _0+\beta _1X_i,\sigma ^2)

实际上,OLS估计不需要这个假定,但是需要进行假设检验和预测则需要知道Yi的分布情况。

以上(1)到(4)称作经典假设,满足的该假设的模型称作线性回归模型。

2.3 模型的参数估计

2.3.1 最小二乘法 (OLS)

思路:寻找实际值与拟合值残差平方和最小的回归直线。

残差平方和:\sum e_i^2=\sum (Y_i-\widehat{Y_i})^2

(1) 最小二乘估计量

求极值。

(2) 最小二乘估计量的性质

线性性、无偏性、有效性也称估计量的小样本性质,具有这三个性质的称作最佳线性无偏估计量(BLUE)

高斯-马尔科夫定理:经典假设下的最小二乘估计量是最佳线性无偏估计量。

a. 线性性(是否是Yi和ui的线性函数)

经计算可以得到2个正规方程如下

\left\{\begin{matrix} \widehat{\beta _0}=\beta _0+\sum k_iu_i \\ \widehat{\beta _1}=\beta _1+\sum m_iu_i \end{matrix}\right. (k_i=\frac{x_i}{\sum x_i^2},m_i=\frac{1}{n}-\overline{X}k_i),ki与mi均为常数,因此参数估计量为ui的线性函数,参数估计量具有线性性。

b. 无偏性(期望值是否等于总体真实值)

使用线性性的结论可以简单证明 E(\widehat{\beta _0})=\beta _0 以及 E(\widehat{\beta _1})=\beta _1

c. 有效性(是否在所有线性无偏估计量中具有最小方差)

(3) 最小二乘估计量的分布

根据假设(5),已知 u_i\sim N(0,\sigma ^2),因此根据线性性结论可以推出参数估计量也服从正态分布:

\widehat{\beta _0}\sim N(\beta _0,\frac{\sigma ^2}{\sum x_i^2}),\widehat{\beta _1}\sim N(\beta _1,\frac{\sum X_i^2\sigma ^2}{n\sum x_i^2}),

2.3.2 极大似然估计

2.4 模型的统计检验

2.4.1 拟合优度检验

思想:构造一个可以表征拟合优度的统计量,统计量是样本的函数,从检验对象中计算得到该统计量数值,并与某一标准进行比较。

(1) 总离差平方和的分解

Y的第i个观测值和样本均值的离差 yi=(Yi-\overline{Y}) 可以分解成两个部分之和:

yi=(Y_i-\widehat{Y_i})+(\widehat{Y_i}-\overline{Y})=e_i+\widehat{y_i}

e_i为残差,即随机偏差;\widehat{y_i}为可解释偏差,即回归偏差,可以认为是由回归直线解释的部分。

考虑所有样本点,则需考虑所有样本点的离差平方和,即:

\sum y_i^2=\sum e_i^2+\sum \widehat{y_i}^2

记作 TSS=ESS+RSS。

其中,TSS(Total sum of squares)指总体平方和;ESS(Explained sum of squares)指回归平方和;RSS(Residual sum of squares)指残差平方和。

显然,ESS在TSS中占比越大,说明回归参数估计值的显著性越强,拟合值与观测值拟合得越好。因此选择ESS与TSS的接近程度作为评判拟合优度的标准。

(2) 拟合优度的度量

R^2表示模型拟合的程度,称拟合优度或者判定系数。

R^2=\frac{ESS}{TSS}=1-\frac{RSS}{TSS}

在双变量回归中,R^2=\frac{\sum (\widehat{Y_i}-\overline{Y})}{\sum (Y_i-\overline{Y})}=\frac{\widehat{\beta _1}\sum (X_i-\overline{X})}{\sum (Y_i-\overline{Y})}=\frac{(\sum x_iy_i)^2}{\sum x_i^2\sum y_i^2}

R^2=0:X与Y完全不存在线性关系。

(3) 样本相关系数

常把相关分析作为回归分析的补充分析办法,样本相关系数r满足: r^2=R^2,但仅是数值相关,概念并不相同。

r=\frac{\widehat{Cov(X,Y)}}{\sqrt{\widehat{Var(X)}}\sqrt{\widehat{Var(Y)}}}=\frac{\sum x_iy_i}{\sqrt{\sum x_i^2}\sqrt{\sum y_i^2}}

我们使用的统计量是判定系数R^2,也称可决定系数。

2.4.2 方程显著性检验

思想:推断被解释变量与解释变量之间的线性关系在总体上是否显著成立。

(1) F检验

F检验的思想来源于总离差平方和的分解式,原理是方差分析,

已知 \sum y_i^2=\sum e_i^2+\sum \widehat{y_i}^2,考虑 \frac{\sum \widehat{y_i}^2}{\sum e_i^2},若比值越大,则说明解释变量X对被解释变量Y的解释程度越高,即总体显著线性。

(2) F统计量

由于数理统计结论,双变量情况中:

\sum \widehat{y_i}^2\sim \chi ^2(1),\sum e_i^2\sim \chi ^2(n-2)

因此可以建立F统计量: F=\frac{\sum \widehat{y_i}^2/1}{\sum e_i^2/(n-2)}\sim F(1,n-2)

(3) F检验步骤

a. 提出假设

原假设 H_0:\beta _1=0;备择假设 H_1:\beta _1\neq 0

b. 利用样本值计算统计量

c. 给定显著性水平α查F分布表。

F>F_\alpha,拒绝原假设,接受备择假设,模型显著;若 F<F_\alpha,接受原假设,回归方程无显著意义。

2.4.3 变量显著性检验

思想:判断X是否是Y的一个显著性的影响因素。在这里,我们主要针对变量的参数估计量是否为0来进行显著性检验。

(1) 随机误差项的方差估计

由于我们之前已经知道参数估计量的分布是 \widehat{\beta _0}\sim N(\beta _0,\frac{\sigma ^2}{\sum x_i^2}),\widehat{\beta _1}\sim N(\beta _1,\frac{\sum X_i^2\sigma ^2}{n\sum x_i^2}),,但\sigma未知,所以需要先找到可以代替\sigma的估计量,才能通过参数估计量的分布进行假设检验。

可以用残差ei的方差Var(ei)代替误差项ui的方差\sigma ^2

Var(e_i)=E(e_i-E(e_i))^2=E(e_i^2)=\frac{1}{v}\sum e_i^2=\widehat{\sigma }

其中的v是指ei的自由度,由于残差由样本得到,而样本容量n有限,且由于残差ei存在约束条件,因此自由度v

通过确定合适的v使得 \widehat{\sigma }^2 具有无偏性。

经过计算,可以得到 E(\sum e_i)=(n-2)\widehat{\sigma }^2,即 E(\sum e_i/(n-2))=\widehat{\sigma }^2,因此无偏估计要求v=n-2。

(2) t检验

将参数估计量的分布转化为正态分布:

\frac{\widehat{\beta _0}-\beta _0}{\sqrt{Var(\widehat{\beta _0})}}\sim N(0,1)

\frac{\widehat{\beta _1}-\beta _1}{\sqrt{Var(\widehat{\beta _1})}}\sim N(0,1)

构造t统计量:

对于 \beta _1t=\frac{\widehat{\beta _1}-\beta _1}{se(\widehat{\beta _1})}\sim t(n-k)

对于 \beta _0t=\frac{\widehat{\beta _0}-\beta _0}{se(\widehat{\beta _0})}\sim t(n-k)

n-k为自由度,k为估计参数的总数,由于是双变量模型,k=2.

(3) t检验步骤

t分布是对称函数。

关于 \beta _0 的检验类似,但不太重要。

a. 对总体参数提出假设

原假设 H_0:\beta _1=0

b. 以原假设构造t统计量,由样本计算其值。

t=\frac{\widehat{\beta _1}-\beta _1}{se(\widehat{\beta _1})}\sim t(n-k)且此时\beta _1=0

c. 给定显著性水平α,查t分布表找出临界值 t_{\alpha /2}(n-2)

d. 结论:若 \left | t \right |\leq t_{\alpha /2}(n-2),认为原假设成立的概率很大,接受原假设。否则拒绝。

(也可以利用t检验检验模型参数取其他特定值哦)

2.4.4 总体参数的置信区间

(1) 置信区间

我们已知参数的分布,并构建了对应的t统计量:

t=\frac{\widehat{\beta _1}-\beta _1}{se(\widehat{\beta _1})}\sim t(n-k)t=\frac{\widehat{\beta _0}-\beta _0}{se(\widehat{\beta _0})}\sim t(n-k)

因此给定置信度1-α,t值处在 (-t_{\alpha/2}(n-2),t_{\alpha/2}(n-2)) 中的概率为1-α。

记作P(-t_{\alpha/2}<t<t_{\alpha/2})=P(-t_{\alpha/2}<\frac{\widehat{\beta _1}-\beta _1}{se(\widehat{\beta _1})}<t_{\alpha/2})=1-\alpha

稍加变换,即可得到参数1-α水平的置信区间为:

(\widehat{\beta _1}-t_{\alpha/2}\times se(\widehat{\beta_1}),\widehat{\beta _1}+t_{\alpha/2}\times se(\widehat{\beta_1}))

(2) 缩小置信区间

a. 增大样本容量n

b. 提高模型的拟合优度

样本参数估计量的标准差和残差平方和成正比,而拟合优度越高,则残差平方和越小。

2.5 模型的预测

2.5.1 点预测

(1) 均值预测

对应于选定的X0,预测Y的条件均值。

通过总体回归函数,我们知道当X=X0时,条件均值 E(Y_0|X=X_0)=\beta _0+\beta _1X_0

通过样本回归函数,我们可以求得拟合值 \widehat{Y_0}=E(Y|X=X_0)=\widehat{\beta _0}+\widehat{\beta _1}X_0

由于 E(\widehat{Y_0})=E(\widehat{\beta _0}+\widehat{\beta _1}X_0)=E(\widehat{\beta _0})+E(\widehat{\beta _1})X_0=\beta _0+\beta _1X_0

因此 \widehat{Y_0} 是条件均值E(Y_0|X=X_0) 的无偏估计。

(2) 个值预测

对应于X0的Y的一个个别值。

通过总体回归函数,我们知道 Y_0=\beta _0+\beta _1X_0+u

通过样本回归函数,我们知道 \widehat{Y_0}=\widehat{\beta _0}+\widehat{\beta _1}X_0

由于 E(\widehat{Y_0})=E(\widehat{\beta _0}+\widehat{\beta _1}X_0)=E(\widehat{\beta _0})+E(\widehat{\beta _1})X_0=\beta _0+\beta _1X_0=Y_0

因此 \widehat{Y_0} 是个值Y的无偏估计。

2.5.2 区间预测

求Y的置信区间其实和求参数的置信区间一样,先通过参数估计量的分布求出\widehat{Y_0}的分布,然后构建t统计量,得到Y(即总体均值)的置信区间。

(1) 总体均值预测值的置信区间

前面已知总体均值为 E(Y|X=X_0)=\beta _0+\beta _1X_0,总体均值的分布如下:

E(Y|X=X_0)\sim N(\beta _0+\beta _1X_0,0)

\widehat{Y_0}的分布:

E(\widehat{Y_0})=\beta _0+\beta _1X_0

Var(\widehat{Y_0})=Var(\widehat{\beta _0})+2Cov(\widehat{\beta _0},\widehat{\beta _1})+X_0^2Var(\widehat{\beta _1})=\sigma ^2(\frac{1}{n}+\frac{(X_0-\overline{X})^2}{\sum x_i^2})

\widehat{\sigma }^2替代式中的\sigma^2,定义S_{\widehat{Y_0}}=\sqrt{Var(\widehat{Y_0})},则得到 \widehat{Y_0} 的分布:

\widehat{Y_0}\sim N(\beta _0+\beta _1X_0,\widehat{\sigma ^2}(\frac{1}{n}+\frac{(X_0-\overline{X})^2}{\sum x_i^2}))

构造t统计量:t=\frac{\widehat{Y_0}-(\beta _0+\beta _1X_0)}{S_{\widehat{Y_0}}}\sim t(n-2)

因此在置信度为1-α时,总体均值E(Y|X=X0)的置信区间为:(\widehat{Y_0}-t_{\alpha/2}\times S_{\widehat{Y_0}},\widehat{Y_0}+t_{\alpha/2}\times S_{\widehat{Y_0}})

(2) 总体个值预测值的置信区间

前面也已经知道 Y_0=\beta _0+\beta _1X_0+u\sim N(\beta _0+\beta _1X_1,\sigma ^2)

因此 \widehat{Y_0}-Y_0\sim N(\beta _0+\beta _1X_0,\sigma ^2(1+\frac{1}{n}+\frac{(X_0-\overline{X})^2}{\sum x_i^2}))注意,这里方差和前面的不一样

构造t统计量,得到在置信度为1-α时,总体个值Y0的置信区间为::

(\widehat{Y_0}-t_{\alpha/2}\times S_{\widehat{Y_0}-Y_0},\widehat{Y_0}+t_{\alpha/2}\times S_{\widehat{Y_0}-Y_0})

2.6 通过Eviews建立双变量回归模型

之后再补

3. 多元线性回归模型

3.1 模型的建立与假设

3.1.1 回归函数

依旧分为总体回归函数和样本回归函数,分别含有随机表达式和非随机表达式。

设有n组观测值(X1,X2,...,Xn),每组样本都满足总体回归函数:

Y_i=\beta _0+\beta _1X_{1i}+\beta _2X_{2i}+...+\beta _nX_{ni}+u_i

可以写作矩阵形式:Y=X\beta+u

其中,Y=\bigl(\begin{smallmatrix} Y1\\ Y2\\ ...\\ Yn \end{smallmatrix}\bigr)_{n\times 1}\beta =\bigl(\begin{smallmatrix} \beta _0\\ \beta _1\\ ...\\ \beta _k \end{smallmatrix}\bigr)_{(k+1)\times 1}X=\bigl(\begin{smallmatrix} 1 &X_{11} & ... &X_{k1} \\ 1&X_{12} & ... &X_{k2} \\ ...& ... & ... & ...\\ 1&X_{1n} & ... & X_{kn} \end{smallmatrix}\bigr)_{n\times (k+1)}u=\bigl(\begin{smallmatrix} u_1\\ u_2\\ ...\\ u_n \end{smallmatrix}\bigr)_{n\times 1}

其中,\beta _i 称作偏回归系数,表示在其他变量不变的前提下,Xi每变化1单位时,Y的均值E(Y)的变化。

3.1.3 模型假设

关于随机误差项的5个假设与双变量情况相同,增加第6个假设改为:

假设6:解释变量之间不存在严格的线性关系,即解释变量的样本观测值矩阵X是满秩的,应满足rank(X)=K+1

3.2 模型的参数估计

3.2.1 普通最小二乘估计

在计算最小残差时,我们会得到k+1个正规方程,解方程即可得到k+1个参数的估计值。

正规方程矩阵形式为:(X'X)\widehat{\beta} =X'Y

由于X满秩,可得:\widehat{\beta }=(X'X)^{-1}(X'Y)

3.2.2 参数估计量的性质

(1) 线性性

(2) 无偏性

(3) 有效性(最小方差性)

3.2.3 随机误差项方差的估计

与双变量情况类似,但自由度有少许变化,随机误差项方差的估计为:

\widehat{\sigma }^2=\frac{\sum e_i^2}{n-k-1}=\frac{e'e}{n-k-1}

3.3 非线性处理

其实大部分的非线性可以通过一些数学处理使其化为线性关系,从而运用线性回归模型的理论。

确定非线性模型形式的方法:

a. 散点图;b.经济学背景;c. 用不同模型拟合,先从经济学角度考虑,再从统计学角度考虑。

(1) 多项式函数模型

形如:Y_i=\beta _0+\beta _1X_{1i}+\beta _2X_{1i}^2+...+\beta _kX_{1i}^k+u_i

则令 Z_{1i}=X_{1i},Z_{2i}=X_{1i}^2,...,Z_{ki}=X_{1i}^k 即可将原模型转化为线性模型。

(2) 双曲线函数模型

自变量与因变量之间具有双曲线函数形式:

Y_i=\beta _0+\beta _1\frac{1}{X_i}+u_i

则令Zi=1/Xi即可将原模型转化为线性模型。

(3) 对数(半对数)模型

对数模型(双对数):ln Y_i=\beta _0+\beta _1lnX_i+u_i

半对数模型:

线性-对数形式 Y_i=\beta _0+\beta _1lnX_i+u_i

对数-线性形式 lnY_i=\beta _0+\beta _1X_i+u_i

作对数变换即可。

(4) 指数函数模型

一般形式为:Y_i=Ae^{bX_i+u_i}

先两边取对数,化为 ln Y_i=lnA+bX_i+u_i

再作对数变换即可。

(5) 幂函数模型

一般形式为:Y_i=AX_{1i}^{\beta _1}X_{2i}^{\beta _2}...X_{ki}^{\beta _k}e^{u_i}

两边取对数,得到:lnY_i=lnA+\beta _1lnX_{1i}+...+\beta _klnX_{ki}+u_i

再作对数变换即可。

(6) 复杂函数模型

(7) 非线性最小二乘法(NLS)

非线性最小二乘估计量不是正态分布的,不是无偏的,且没有最小方差。

3.4 模型的统计检验

3.4.1 拟合优度检验

(1) 修正后的拟合优度

随解释变量个数的增加,R2会变大,但这并不意味着拟合变好,因此,需要调整R2。

调整后的可决定系数为:

\overline{R^2}=1-\frac{RSS/(n-k-1)}{TSS/(n-1)}

每增加一个解释变量,残差平方和RSS的自由度都会随之减小,当加入的解释变量对响应变量的影响较大时,RSS的减小比自由度的减小更为显著,则修正的拟合优度会增加。

修正后的拟合优度可能为负值。

(2) 赤池信息准则AIC和施瓦茨准则SC

可以比较含解释变量个数不同的回归模型拟合优度。

仅当增加该解释变量可以减少AIC值或者SC值时,才选择增加该解释变量。

3.4.2 方程显著性检验 (F检验)

(1) F检验

提出假设:

原假设 H_0:\beta _1=\beta _2=...=\beta _k=0  ; 备择假设:H_1:\beta _1,\beta _2,...,\beta _k 不全为零

在原假设成立的条件下构造F统计量:

F=\frac{ESS/(k)}{RSS/(n-k-1)}\sim F(k,n-k-1)

给定显著性水平α,查表得到F分布临界值,若 F>F_\alpha (k,n-k-1) 则拒绝原假设,否则接受。

(2) 拟合优度和F值的重要关系

可以推出 FR^2,\overline{R^2} 的关系式,这里略过了,知道结论就行。

F与\overline{R^2}同向变化。

F检验既是回归模型的总显著性的度量,也是R2的一个显著性检验(因为可以推出F=\frac{R^2/K}{(1-R^2)/(n-k-1)}     )。

3.4.3 变量显著性检验 (t检验)

因为方程的总体线性关系显著不等于每个解释变量对被解释变量的影响都显著。因此需要对每个解释变量作显著性检验。

首先提出假设:

原假设 H_0:\beta _i=0;备择假设 H_1:\beta _i\neq 0

构造 t 统计量:

由于 Cov(\beta )=\sigma ^2(X'X)^{-1},记 A_{ii} 为矩阵 (X'X)^{-1} 对角线上的第i个元素。

\widehat{\beta i}\sim N(\beta _i,\sigma ^2A_{ii})

随机误差项 \sigma ^2 的估计值为 \widehat{\sigma ^2}=\frac{e'e}{(n-k-1)}

因此 t=\frac{\widehat{\beta _i}-\beta_i }{se(\widehat{\beta _i})}=\frac{\widehat{\beta _i}-\beta_i }{\sqrt{A_{ii}\frac{e'e}{n-k-1}}}=\sim t(n-k-1)

给定显著性水平α,查表找出t分布的临界值,若 |t|>t_{\alpha/2}(n-k-1),则拒绝原假设,认为对应解释变量对被解释变量的影响显著,否则接受原假设。

3.4.4 参数的置信区间

由于 t=\frac{\widehat{\beta _i}-\beta_i }{se(\widehat{\beta _i})}=\frac{\widehat{\beta _i}-\beta_i }{\sqrt{A_{ii}\frac{e'e}{n-k-1}}}=\sim t(n-k-1)

则给定显著性水平α,参数(1-α)水平的置信区间为:(\widehat{\beta _i}-t_{\alpha/2}\times se(\widehat{\beta _i}),\widehat{\beta _i}+t_{\alpha/2}\times se(\widehat{\beta _i}))

3.4.5 其他约束条件的检验

若需要检验m个系数是否为0,可提出假设:

原假设 H_0:\beta _1=\beta _2=...\beta_m=0;备择假设 H_1:\beta _1,\beta _2,...,\beta _m 不完全为0。

其实这相当于检验m个约束条件:\beta _1=0,...,\beta _m=0是否同时成立。

在H0为真的前提下进行回归(有约束回归),得到残差平方和为

S_R=\sum (Y_t-\widehat{\beta _0}^R-\widehat{\beta_{m+1}}^R X_{(m+1)t}-...-\widehat{\beta _k}^RX_{kt})^2

在H1为真的前提下进行回归(无约束回归),得到残差平方和为

S=\sum (Y_t-\widehat{\beta _0}-\widehat{\beta_1}X_{1t}-...-\widehat{\beta _k}X_{kt})^2

若H0为真,不管是否包含这m个变量,得到的结果都不会有显著差别,即 S_R\approx S

若H1为真,由于无约束回归的自由度更小,所以应有 S<S_R

因此,检验S与SR的差异是否显著,则相当于检验原假设是否为真。

构造F统计量如下:

F=\frac{(S-S_R)/m}{S/(n-k-1)}\sim F(m,n-k-1)(显然,F统计量与度量单位无关)

接下来进行F检验即可。

当然,其他约束形式也可以使用分别进行有约束回归和无约束回归,并构造F统计量来检验。

3.5 模型的预测

对于模型 \widehat{Y}=X\widehat{\beta} +u,给定样本以外的一解释变量观测值X0=(X1,X2,...,Xn),可以估计得到被解释变量的预测值,即对总体均值E(Y0)或者个值Y0的预测。

由于这里得到的预测只是预测值的估计,所以需要进一步算出预测值的置信区间。

注意:Y_0=E(Y|X=X_0)+u=E(Y_0)+u=X\beta +u

3.5.1 总体均值的预测的置信区间

由于 \widehat{Y_0}\sim N(X_0\beta ,\sigma ^2X_0(X'X)^{-1}X_0'),注意\sigma ^2的估计量是S^2

构造t统计量:

\frac{\widehat{Y_0}-E(Y_0)}{S\sqrt{X_0(X'X)^{-1}X_0'}}\sim t(n-k-1)

\widehat{Y_0}的标准误为 se(\widehat{Y_0})=S\sqrt{X_0(X'X)^{-1}X_0'}

给定显著性水平α,因此得到总体均值的置信区间为:(\widehat{Y_0}-t_{\alpha/2}\times se(\widehat{Y_0}),\widehat{Y_0}+t_{\alpha/2}\times se(\widehat{Y_0}))

3.5.2 个值的预测的置信区间

计算得到 e_0=Y_0-\widehat{Y_0}\sim N(0,\sigma ^2(1+X_0(X'X)^{-1}X_0'))

\frac{\widehat{Y_0}-Y_0}{S\sqrt{1+X_0(X'X)^{-1}X_0'}}\sim t(n-k-1)

e_0 的标准误为 se(\widehat{e_0})=S\sqrt{1+X_0(X'X)^{-1}X_0'}

给定显著性水平α,因此可以得到个值Y0的置信区间为:

(\widehat{Y_0}-t_{\alpha/2}\times se(e_0),\widehat{Y_0}+t_{\alpha/2}\times se(e_0))

3.6 虚拟变量

(1) 基本概念

引入虚拟变量的目的是定量化表示定性信息。

根据变量的属性类型,构造只取0,1的人工变量,通常称作虚拟变量。回归模型中仅含虚拟变量或定性变量称作方差分析模型(ANOVA),同时含有定量和定性变量称作协方差分析模型。

(2) 虚拟变量的使用

a. 截距项变动

虚拟变量的引入只会导致截距项变动。

如下图所示:

计量经济学笔记_第1张图片

可见虚拟变量控制了不同截距。

引入的虚拟变量应为:D_1=\left\{\begin{matrix} 1 &high school \\ 0& other \end{matrix}\right.D_2=\left\{\begin{matrix} 1 &universityormore \\ 0& other \end{matrix}\right.

回归函数为:Y_i=\beta _0+\beta _1X_i+\beta _2D_1+\beta _3D_2+u_i

b. 斜率项变动

如果是下面这种情况:

截距项不变,斜率改变。

则对应的回归函数为:Y_i=\beta _0+\beta _1X_i+\beta _2DX_i+u_i

 其中,D=\left\{\begin{matrix} 0\\ 1 \end{matrix}\right.

c. 截距项和斜率均变动

若虚拟变量对截距项和斜率均有影响,则可以设定模型的形式如下:

Y_t=(\beta _0+\beta_1D_t)+(\beta _2+\beta _3D_t)X_t+u_t

其中,D_t=\left\{\begin{matrix} 0\\ 1 \end{matrix}\right.

(3) 季节虚拟变量的使用

可以用3个虚拟变量表示4个季节

(4) 虚拟变量陷阱

每一定性变量引入的虚拟变量必须比该定性变量的类别少1,否则会违背上述假设6,无法进行OLS估计,落入虚拟变量陷阱。

如,定性变量有m个类别,则引入m-1个虚拟变量。

4. 模型可能存在的问题与解决方法

4.1 误设定

错误的函数形式或者遗漏重要变量等等都会导致模型的误设定。

(1) 选取解释变量的4准则

a. 从理论上看该解释变量是否有必要

b. t检验(变量是否显著)

c. \overline{R^2}(加入该解释变量后\overline{R^2}是否变大)

d. 偏倚(加入该解释变量后其他变量系数估计量是否显著变化)

如果答案是“是”,则可以将该变量加入模型。

(2) RESET方法(检验模型误设定)

思路:在回归模型中加入 \widehat{Y}^2,\widehat{Y}^3,\widehat{Y}^4等作为解释变量,然后看结果是否有显著改善。如果有,则模型很可能存在误设定问题(如遗漏重要变量等)。

步骤:对模型进行回归,得到残差平方和 RSS_M 和拟合值 \widehat{Y},计算得到\widehat{Y}^2,\widehat{Y}^3,\widehat{Y}^4,将这三个当作解释变量加入回归方程, 再次回归,得到新回归方程的残差平方和 RSS。

构造F统计量:

F=\frac{(RSS_M-RSS)/M}{RSS/(n-k-1)}

M是约束条件的个数,这里是3。

4.2 多重共线性

如果存在多个解释变量高度相关,则模型存在多重共线性。在时间序列数据中较为普遍。

如果模型只用于预测,则只要拟合效果好即可,不必过于在意多重线性;但若模型用于结构分析,这就是一个较为严重的问题。

4.2.1 分类

(1) 完全的多重共线性

若存在 c_1X_{1i}+c2X_{2i}+...+ckX_{ki}=0,且c1,c2,...,ck不完全为零,则方程存在完全的多重共线性。

(2) 近似的多重共线性

若存在 c_1X_{1i}+c2X_{2i}+...+ckX_{ki}+u_i=0,ui为随机误差项,且c1,c2,...,ck不完全为零,则方程存在近似的多重共线性。

注意,此时并不违背任何基本假设。

4.2.2 产生的原因

(1) 经济变量共同的变动趋势

(2) 滞后变量的引入

(3) 样本的限制

4.2.3 多重共线性的后果

(1) 完全共线性下OLS估计量不存在

完全共线性情况下,|X'X|=0,因此(X'X)^{-1}不存在,故而 \widehat{\beta }=(X'X)^{-1}X'Y不存在。

(2) 近似共线性下OLS估计量的方差增大

已知参数估计量的方差为 Cov(\widehat{\beta })=\sigma ^2(XX)^{-1},因此,当 |X'X|\approx 0(X'X)^{-1}主对角线元素较大,故而参数估计量的方差也对应较大。

(3) 使得变量的显著性检验出现偏误

由于参数估计量的方差变大,容易使得样本数据计算得到的t统计量小于t临界值,错误作出参数为0的推断。可能会将重要变量排除。

(4) 参数估计量的经济含义不合理

若两个解释变量具有线性关系,则X1,X2的参数不再反映各自自变量与因变量之间的关系,而是反映它们与因变量之间的共同关系。会造成参数估计量的符号、大小反常,失去经济意义。

4.2.3 初步判断

如发现解释变量系数估计量的符号不对,某些重要变量的t值过小且拟合优度不低,或者当某个不重要的解释变量删除后,回归结果发生显著变化。

4.2.4 检验

(1) 利用变量之间的相关性判断

求出相关系数r。

或者当有多个解释变量是,将每一个解释变量与其余解释变量做回归,观察拟合优度。

(2) 方差膨胀因子 (VIF)

(3) 条件指数

4.2.5 解决方法

(1) 增加数据

(2) 增加约束条件

(3) 删去某些变量

可以考虑逐步回归法

(4) 改变模型形式

可以考虑使用差分模型,通常增量之间的线性关系远远弱于总量之间的。

可以用被解释变量的滞后值代替解释变量的滞后值。

也可以使用离差形式的模型。

(5) 主成分回归,因子分析,岭回归等等

4.3 异方差性

对于不同的样本点,随机误差项的方差不再是常数,则认为随机误差项出现了异方差性。

Var(u_i)=\sigma _i^2

4.3.1 分类

(1) 单调递增型:\sigma ^2 随 X 的增大而增大

(2) 单调递减型:\sigma ^2 随 X 的减小而减小

(3) 复杂型: \sigma ^2随 X 的变化较为复杂

计量经济学笔记_第2张图片

4.3.2 后果

(1) 参数估计值非有效

因为OLS估计需要同方差性的条件,即E(u'u)=\sigma ^2I

(2) 变量的显著性检验失去意义

因为异方差性会导致se(\widehat{\beta })产生偏误

(3) 模型的预测失效

4.3.3 检验

(1) 图示法

绘制X-Y散点图:散点是否分布在一条固定的带状区域

绘制X-\widetilde{e_i}^2散点图:是否形成斜率为零的直线

(2) 帕克检验 (Park test)

将图示法中的X-\widetilde{e_i}^2散点图描述成具体的公式。

如  ln \widetilde{e_i}^2=\beta _0+\beta _1X+u_i,若\beta _1显著,则数据具有异方差性。

(3) 格里瑟检验 (Glejser)

与Park test相似,但是用残差的绝对值和解释变量做回归。

(4) 格雷弗尔德-匡特检验(G-Q检验)

以F检验为基础,适用于样本量较大,异方差递增或递减的情况。

将n对样本观察值(Xi,Yi)按照Xi的大小排序,删去中间c=n/4个,将余下样本分为较大和较小的两个子样本,容量均为(n-c)/2。对每个样本作OLS回归,得到分别的残差平方和RSS1,RSS2。

在同方差假定下构造F统计量:

F=\frac{RSS_2/((n-c)/2-k-1)}{RSS_1/((n-c)/2-k-1)}\sim F_\alpha ((n-c)/2-k-1,(n-c)/2-k-1)

进行F检验即可。

(5) 怀特检验(White test)

不需要排序,适合任何形式的异方差。

以二元回归为例,作辅助回归:

\widetilde{e_i}^2=\alpha _0+\alpha _1X_{1i}+\alpha _2X_{2i}+\alpha _3X_{1i}^2+\alpha _4X_{2i}^2+\alpha _5X_{1i}X_{2i}+u_i

得到辅助回归的决定系数R2,解释变量个数m,样本容量n。

在同方差假设下:nR^2\sim\chi ^2(m)

则对nR2进行\chi ^2即可。

(6) 布罗施-培甘检验 (B-P检验)

对模型进行OLS估计,得到残差。通过残差得到误差项的估计 \widetilde{\sigma_i }^2=\sum \widetilde{e_i}^2/n

构造新变量pi:pi=\widetilde{e_i}^2/\widetilde{\sigma _i}^2

对模型进行回归:p_i=\alpha _0+\alpha _1z_{1i}+...+z_mz_{mi}+u_i,得到回归平方和ESS。注意B-P检验对这个模型没有特别的约束,只要模型中含有常数项即可。

易知 1/2ESS\sim\chi ^2(m),进行\chi ^2检验即可。

(7) 布罗施-培甘检验 (B-P检验) 的另一种形式

对模型Y_t=\beta _0+\beta _1 X_{1t}+...+\beta __kX_{kt}+u_t进行回归得到残差,建立模型:

e_t^2=\delta _0+\delta _1 X_{1t}+...+\delta __kX_{kt}+v,回归得到决定系数 R^2

构建统计量:

F=\frac{R^2/k}{(1-R^2)/(n-k-1)}\sim F(k,n-k-1)

或者构造统计量:

LM=nR^2\sim \chi ^2(k)

接下来根据所选的统计量进行F检验或者卡方检验就好啦。

4.3.4 解决方法

(1) 变换模型形式使得具有同方差性,再进行OLS估计。

(2) 广义最小二乘估计 (GLS)

异方差情况下,E(u'u)=\sigma ^2\Omega

其中, \Omega =\bigl(\begin{smallmatrix} \lambda _1 &0&... &0 \\ 0 & \lambda _2 &...&0 \\ ... & ... & ...&...\\ 0&0&...&\lambda _n \end{smallmatrix}\bigr)

4.4 自相关性

对于不同样本点,随机误差项之间不再是不相关的,则认为出现了序列相关。

Cov(u_i,u_j)=E(u_iu_j)\neq 0

常出现于时间序列数据。

4.4.1 自相关的分类

E(u_tu_{t-k})\neq 0 称作k阶自相关。

(1) 一阶自相关

仅存在 E(u_tu_{t-1})\neq 0,则称作一阶自相关。表示为 u_t=\rho u_{t-1}+\varepsilon_t

其中,\rho为自相关系数;而 \varepsilon _t为随机干扰项,为白噪声序列。

计量经济学笔记_第3张图片

由于\rho>0,是正相关,相邻的误差项倾向于同上或同下,正负号相同。

计量经济学笔记_第4张图片

由于\rho<0,是负相关,相邻的误差项倾向于一增一减,正负号不同。

4.4.2 产生的原因

(1) 经济事件数据常有的惯性

(2) 数据编造

(3) 设定偏误

缺少重要变量,该变量有自相关性。或者模型形式有问题。

4.4.3 产生的后果

类似于异方差性。

4.4.4 检验

思路:通过OLS估计求出随机误差项的估计量,即残差。通过分析这些近似估计量之间的关系判断是否具有自相关性。

(1) 图示法

观察 \widetilde{e_t} 的变化判断 u_t 的自相关性。

(2) D-W检验

假定:a. X是非随机变量;b. ut具有一阶相关性;c. 解释变量中不含有滞后因变量;d. 回归含有截距项。

提出假设:原假设 H_0:\rho =0

构造统计量:

D.W.=\frac{\sum_{t=2}^{n}(\widetilde{e_t}-\widetilde{e_{t-1}})^2}{\sum_{t=1}^{n}\widetilde{e_t}^2}

该统计量分布很难求,因为和X有关,但是通过查表很容易得到该统计量的上下限 d_u,d_l,给定显著性水平α,上下限仅与解释变量个数k和样本容量有关。

比较DW和上下限的大小,得出结论:

计量经济学笔记_第5张图片

因为 D.W.\approx 2(1-\rho ) 。

(3) 布鲁奇-戈弗雷检验法(BG检验)

克服了DW检验的缺陷,适用于解释变量中含有滞后因变量的模型和高阶自相关的模型。

如果认为模型Y_t=\beta _0+\beta _1 X_{1t}+...+\beta __kX_{kt}+u_t具p阶自相关性,考虑对下列模型进行有约束回归:

Y_t=\beta _0+\beta _1 X_{1t}+...+\beta __kX_{kt}+\rho _1u_{t-1}+...+\rho _pu_{t-p}+\varepsilon _t

提出假设:原假设 H_0:\rho _1=\rho _2=...=\rho _p

Y_t=\beta _0+\beta _1 X_{1t}+...+\beta __kX_{kt}+u_t进行回归得到残差\widetilde{et}

建立模型 \widetilde{e_t}=\beta _0+\beta _1 X_{1t}+...+\beta __kX_{kt}+\rho _1\widetilde{e_{t-1}}+...+\rho _p\widetilde{e_{t-p}}+\varepsilon _t ,回归得到决定系数R^2.

构造统计量:

当原假设为真时有

LM=(n-p)R^2\sim \chi ^2(p)

在大样本下比较准确。

接下来进行卡方检验即可。

4.4.5 消除的方法

(1) 一阶自相关

原模型:Y_t=\beta _0+\beta _1X_t+u_t,u_t=\rho u_{t-1}+\varepsilon _t 。其中 \varepsilon _t 是白噪声序列。

一阶滞后模型:Y_{t-1}=\beta _0+\beta _1X_{t-1}+u_{t-1}

两边同乘 \rho ,得到模型:\rho Y_{t-1}=\rho \beta _0+\rho \beta _1X_{t-1}+\rho u_{t-1}

原模型减上述模型:Y_t-\rho Y_{t-1}=\beta _0(1-\rho )+\beta _1(X_t-\rho X_{t-1})+(u_t-\rho u_{t-1})

因为 u_t-\rho u_{t-1}=\varepsilon _t,因为满足经典假设。

进行广义差分变换:Y_t^*=Y_t-\rho Y_{t-1},X_t^*=X_t-\rho X_{t-1},\beta _0^*= \beta _0(1-\rho)

可以得到广义差分模型:Y_t^*=\beta _0^*+\beta _1X_t^*+\varepsilon _t

注意:为了弥补差分变换之后一个观测值的损失,提出可以使得(为了保证方差齐性):

Y_1=Y_1\sqrt{1-\rho^2},X_1=X_1\sqrt{1-\rho^2}

因此可见,重点在于求出 \rho 。

a. 使用DW统计量估计\rho

由上已知易求出 D.W.\approx 2(1-\rho ),因此可以通过DW统计量求出\rho,但这只有在大样本下才准确。小样本时,提出修正后的估计 \rho=\frac{n^2(1-DW/2)+k^2}{n^2+k^2}

b. 通过OLS残差估计\rho

通过OLS估计得到残差,建立回归模型:\widetilde{e_t}=\widehat{\rho} \widetilde{e_{t-1}}+\varepsilon _t

但是小样本情况下\rho的估计量\widehat{\rho} 有偏。

c. 科克伦-奥克特迭代法

通过一系列的迭代,从\rho的某个初始值开始,通过逐步逼近反复估计\rho

通过对原模型OLS估计得到残差,建立回归模型:\widetilde{e_t}=\widehat{\rho} \widetilde{e_{t-1}}+\varepsilon _t,得到\rho的估计量,进行差分变换,得到模型:Y_t^*=\beta _0^*+\beta _1X_t^*+\varepsilon _t

重新计算残差,进行对\rho的估计,不断迭代下去。

当然通常迭代两次就够啦(又称科克伦-奥克特两步法)。

d. 希尔德雷斯-卢搜寻法

实际上是一种格点搜索法,在\rho的预先指定范围(如从-1到1)内指定格点之间的距离(如0.01),用这样产生的全部\rho值(如-1.00,-0.99,...)对X,Y进行差分变换:Y_t^*=Y_t-\rho Y_{t-1},X_t^*=X_t-\rho X_{t-1},\beta _0^*= \beta _0(1-\rho)

估计:Y_t^*=\beta _0^*+\beta _1X_t^*+\varepsilon _t

将可以产生最小标准误差的作为\rho的估计量。

(2) 一般自相关

广义最小二乘法:

对于模型:Y=X\beta +u

如果存在自相关性,则有 Cov(u)=E(uu')=\sigma ^2\Omega

\Omega是对称的正定矩阵,存在可逆矩阵P,有PP'=\Omega。用P^{-1}左乘原模型:

P^{-1}Y_t=P^{-1}X \beta +P^{-1}u

P^{-1}对X,Y进行广义差分变换:Y_*=P^{-1}Y,X_*=P^{-1}X,u_*=P^{-1}u

可以得到:Y_*=X_*\beta +u_*

易证广义最小二乘估计量为:\widehat{\beta} _{GLS}=(X'\Omega ^{-1}X)^{-1}(X\Omega ^{-1}Y)

且这个估计量是线性、无偏、有效的。

因此,我们只需要考虑如何得到 \Omega 。

如果随机误差项为一阶自相关的,则可以得到:

Cov(uu')=\sigma _u^2\bigl(\begin{smallmatrix} 1 & \rho & ... & \rho^{n-1}\\ \rho & 1 & ... &\rho^{n-2} \\ ... & ... & ... & ...\\ \rho^{n-1} & \rho^{n-2} & ... & 1 \end{smallmatrix}\bigr)

则 P=\bigl(\begin{smallmatrix} \sqrt{1-\rho^2} & 0 & ... & 0\\ -\rho & 1 & ... & 0\\ 0 & -\rho & ... & 0\\ 0& 0 & ... & 1 \end{smallmatrix}\bigr),容易证明P\Omega P'^{-1}=I

则用P^{-1}对X,Y做变换有:Y_t^*=1-\rho Y_t ,X_t^*=1-\rho X_t,Y_1^*=Y_1\sqrt{1-\rho^2},X_1^*=X_1\sqrt{1-\rho^2}

对变换后的模型做回归则可以得到广义最小二乘估计量。

5. 联立方程模型

比如,市场均衡模型、商品需求方程组都属于联立方程模型。由于联立方程中各变量的相互作用,会带来一些估计上的问题,因此我们接下来要解决联立方程模型的参数估计问题。

5.1 行为方程和恒等式

5.1.1 行为方程

比如消费函数即一个行为方程,描述的是消费者的行为。当然除此以外,描述经济变量之间的技术联系的方程也是行为方程,虽然描述的不是行为。

因此,广义上,行为方程是描述变量之间经验关系的方程。因此含有未知参数和随机扰动项。

5.1.2 恒等式

也称定义式,是人为定义的一种变量之间的恒等关系。如:净投资=期末资本存量-期初资本存量。

不包含未知参数,没有不确定性。

5.2 几类变量

5.2.1 内生变量

内生变量是随机变量,其参数是联立方程系统估计的元素,既对方程有影响,也受到方程的影响,通常都是经济变量。一般情况下,内生变量与随机扰动项有关,即:

Cov(Y_i,u_i)=E(Y_iu_i)\neq 0

内生变量既作为被解释变量,又可以在不同方程之间作为解释变量。

5.2.2 外生变量

通常是确定性变量,参数不是模型系统研究的元素,与随机扰动项无关,影响系统,但不受系统影响,通常是经济变量、条件变量、虚拟变量等等。

5.2.3 前定变量

外生变量与滞后的内生变量的统称。前定变量只能作为解释变量。

5.3 模型的形式

5.3.1 结构式

其中的方程称作结构方程,一个方程反映一个基本的经济关系,结构方程中的参数称作结构参数。

如:

C_t=\alpha+\beta Y_t+u_t

Y_t=C_t+I_t

5.3.2 简单式

用所有前定变量作为内生变量的解释变量,简化式模型中的方程称作简化式方程,方程中的参数称作简化式参数,简化式参数反映了前定变量对内生变量的直接和间接影响之和。简化式模型并不是经济系统的客观描述。

5.4 联立方程模型的识别

5.4.1 可识别方程

如果对于一个方程,没办法通过取模型中其他方程线性组合的方式,得到和这个模型统计形式完全相同的方程,则说明该方程是可识别的。

统计形式完全相同是指如两个方程的变量相同,函数形式相同,如:

两个方程都是:Qt=截距+斜率*Pt+随机扰动项

例子:供求模型

\left\{\begin{matrix} Q_t=\alpha_0+\alpha_1P_t+u_t\\ Q_t=\beta_0+\beta_1P_t+\varepsilon _t \end{matrix}\right.

由于可以得到的线性组合和需求方程以及供给方程具有完全相同的统计形式,所以需求方程和供给方程都不可识别。

5.4.2 消除模型中的识别

不可识别的方程中结构参数无法被估计,所以应该首先消除这个问题。

只要在方程中添加不同的解释变量,则可以消除方程的不可识别问题。

如在需求方程中添加Y变量,得到新的供求模型如下:

\left\{\begin{matrix} Q_t=\alpha_0+\alpha_1P_t+u_t\\ Q_t=\beta_0+\beta_1P_t+\beta_2Y_t+\varepsilon _t \end{matrix}\right.

则此时需求方程与模型中其他方程的线性组合的统计形式不同,因此需求方程为可识别的,但供给方程依然为不可识别的。当然,只要在供给方程中添加一个新变量M,则可以使得它变成可识别的。

5.4.3 恰好识别and过度识别

(1) 恰好识别

若模型中约束条件提供的信息对于识别某个方程刚好够用,则认为该方程是恰好识别的。

(2) 过度识别

若模型中约束条件提供的信息对于识别某个方程不但够用,而且有余,则认为该方程是过度识别的。

5.4.4 识别的条件

(1) 阶条件

模型中某个方程可识别的必要条件是:该方程中不包含的模型中变量的个数大于等于模型中的方程个数减一。即,施加在该方程结构参数上的约束条件数目大于等于方程总数减一。

即:K-M\geq G-1 或者 R\geq G-1

其中,K是模型中的变量总数(也即内生变量+前定变量);M是方程中的变量;G是模型中方程的个数(也即内生变量的个数);R为施加在该方程结构参数上的约束条件数目。

虽然只是必要条件,但是通常情况下可以用来判断模型中方程是否可识别。

K-M=G-1,恰好识别;

K-M>G-1,过度识别;

K-M<G-1,不可识别。

(2) 秩条件

模型中某个方程可识别的充要条件是:模型中不包含在这个方程中的所有变量的系数矩阵的秩等于G-1。

5.5 联立方程模型的估计

内生变量作为解释变量出现在方程中时,常常与随机误差项有关,因此OLS估计量既不是无偏,也不一致,因此不能再使用。

5.5.1 单方程方法

对每个方程分别进行估计,同时考虑模型中其他方程对于所估计方程的影响。

常用方法有间接最小二乘法(ILS法)、二阶段最小二乘法(2SLS法)、有限信息极大似然法(LIML法)

(1) 间接最小二乘法 ILS

求出简化式方程,对简化式方程分别使用OLS法得出简化式系数的一致估计值,通过简化式系数估计值导出结构式系数估计值。

仅适用于恰好识别方程的估计。

(2) 二阶段最小二乘法 2SLS

思路:将所有外生变量合起来作为一个“最佳的”工具变量。

第一步:将要估计的方程中作为解释变量的每一个内生变量对模型中所有前定变量回归(即 估计简化式方程),然后计算各内生变量的估计值。

第二步:然后,用内生变量的估计值代替方程中作为解释变量的内生变量(即作为这些内生变量的工具变量),对原方程应用OLS法。

2SLS估计量是合理的工具变量估计量,因此是一致估计量。它的小样本性质通常情况下比其他估计量好,而且稳定,所以是联立方程模型估计中的首选方法。

可以应用于所有可识别方程中,应用在恰好识别方程中时,结果与ILS法一摸一样。

5.5.2 系统估计方法

对整个模型中全部结构参数同时进行估计。因为估计参数时使用了整个系统的信息,所以渐进有效性高于单方程法,但是缺点是计算成本高,且对误设定很敏锐。

常用方法有三阶段最小二乘法(3SLS法)、完全信息极大似然法(FILM法)

(1) 三阶段最小二乘法 3SLS

思路:先通过二阶段最小二乘法估计每个方程,得到一组残差,然后用残差估计各扰动项的协方差矩阵,然后将所有方程堆叠在一起,用广义最小二乘法估计。

第一步:估计各方程的2SLS估计量。

第二步:用2SLS估计量得到每个行为方程的残差,然后估计各扰动项的同期方差-协方差矩阵。

第三步:用GLS法估计代表该系统所有方程的巨型方程。GLS中的\Omega由上一步骤计算得到的2SLS残差得到。

形成巨型方程:将模型中行为方程里的所有变量作为解释变量,将观测值合并起来,形成一个派生方程。其中,如果是内生变量,则用2SLS估计量代替。此时每个变量的样本容量均为Gn个(G为行为方程个数,n为变量原样本容量)。

例子:

计量经济学笔记_第6张图片

3SLS是一致估计量,通常较2SLS更加有效。

6. 时间序列分析

7. 面板数据模型

你可能感兴趣的:(回归,算法)