GMM的世界,你不懂?(下篇)

​在GMM的世界,你不懂?(上篇)里面简介了GMM的诞生的思绪历程, 当然是猜的啦。 这里稍微扩展点点, 说明下下GMM的广和美。

GMM的广

前面(GMM的世界,你不懂?(上篇),最大似然估计的2种论证),已经说明了如何把最小二乘法OLS,工具变量IV,最大似然估计MLE,如何囊括在MME

的旗下, 而GMM中的第一阶段就是MME, 这样基本就靠MME大统一了OLS,MLE, MME。 当然这个统一,需要工具变量的思想的融入的。

这里稍微回顾下下:

最小二乘法OLS

直接通过假设 E(X,e) = 0 出发, 代入矩估计的样本矩,就得到了OLS。

GMM的世界,你不懂?(下篇)_第1张图片


最大似然估计 MLE

通过替换函数设定为参数的导函数, 然后证明矩估计为零, 再根据导数为零就是求极值的思路,得到最大似然估计的目标公式。

GMM的世界,你不懂?(下篇)_第2张图片


工具变量IV

和最小二乘法类似, 只是需要找到工具变量和自变量相关,而和误差无关。 然后就很容易根据矩估计得到工具变量的表达式。

GMM的世界,你不懂?(下篇)_第3张图片


加权最小二乘法WLS

从普通最小二乘法OLS到WLS,一般只要进行一个标准化的替换就可以, 这里也是这样的。

GMM的世界,你不懂?(下篇)_第4张图片


我们也可以看看GMM的简单处理:

GMM的世界,你不懂?(下篇)_第5张图片


另外, 对于异方差情况下OLS的WLS的简单对比:

GMM的世界,你不懂?(下篇)_第6张图片


2阶段最小二乘法 2SLS

对于2SLS来说, 那么矩估计的形式和IV的矩估计的形式一致, 但是对于GMM第二步里面的权重的设立就不一样了。 这也是, 我们前面说GMM某种意义上是泛化的IV。

GMM的世界,你不懂?(下篇)_第7张图片


GMM的美

GMM在兼容这么多模型的同时, 还自带特别好的性质, 首先是一致性, 其次具有渐近正态性, 最后如果选择合适的权重矩阵, 还能得到有效的估计。 一般情况下,权重的选择和估计的向量值函数的方差有关, 和加权最小二乘法非常相似。


这其中, 因为满足渐近正态性, 使得各种常用假设检验的手段也能够被应用,譬如卡方检验, 学生检验等等。

另外就是, 由于引入了向量值函数的思想, 对非线性的情况也进行了很好的兼容。 譬如, 非线性最小二乘法NLS, 也可以使用GMM来进行表示。



这样大概概述了下下, GMM美好的特性。

小结:

这里简单概述了下GMM的广泛兼容性和性质,不愧广美美和诺贝尔奖级别的发明。 但是任何手段不是十全十美的, 譬如GMM不自带向量值函数的自动推荐; 站在3SLS的基础上, 对于复杂的时间序列也没有很好的处理; 也不自带Bootstrap这种泛化增强的手段。 但是,GMM毕竟是快30年前的发明了。

关键词:

NLS

Asypototically Normal

Bootstrap

相关话题:

GMM的世界,你不懂?(上篇)

等价のGLS, 2SLS, IV ?

最小二乘法的6个假设 (上篇)

最小二乘法的6个假设 (中篇)

一步一步走向锥规划 - 最小二乘法

最小二乘法的4种求解

回归分析中的问题和修正的探讨(上篇)

回归分析中的问题和修正的探讨(下篇)

评价参数估算的常用指标

最大似然估计的2种论证

Z-Test vs T-Test vs F-Test vs χ2-Test

特征选择, 经典三刀

数据变换

Lasso简史

信息熵的由来

“66天写的逻辑回归” 引

乔丹上海行

随机眼里的临界

GMM的世界,你不懂?(下篇)_第8张图片


GMM的世界,你不懂?(下篇)_第9张图片


参考:

http://www.ssc.wisc.edu/~kwest/publications/2000/GMM%20and%20Macroeconomics.pdf

你可能感兴趣的:(GMM的世界,你不懂?(下篇))