fisher information 的直观意义

作者:知乎用户
链接:https://www.zhihu.com/question/26561604/answer/33275982
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

首先我们看一下 Fisher Information 的定义:
假设你观察到 i.i.d 的数据 服从一个概率分布,是你的目标参数(for simplicity, 这里是个标量,且不考虑 nuissance parameter),那么你的似然函数(likelihood)就是:

为了解得Maximum Likelihood Estimate(MLE),我们要让log likelihood的一阶导数得0,然后解这个方程,得到
这个log likelihood的一阶导数也叫,Score function :

那么Fisher Information,用表示,的定义就是这个Score function的二阶矩(second moment)。
一般情况下(under specific regularity conditions)可以很容易地证明,, 从而得到:

于是得到了Fisher Information的第一条数学意义:就是用来估计MLE的方程的方差。它的直观表述就是,随着收集的数据越来越多,这个方差由于是一个Independent sum的形式,也就变的越来越大,也就象征着得到的信息越来越多。

而且,如果log likelihood二阶可导,在一般情况下(under specific regularity conditions)可以很容易地证明:

于是得到了 Fisher Information的第二条数学意义:log likelihood在参数真实值处的负二阶导数的期望。这个意义好像很抽象,但其实超级好懂。
首先看一下一个normalized Bernoulli log likelihood长啥样:
<img src="https://pic3.zhimg.com/28c4c679b6758707ed779c066d0e8e3a_b.jpg" data-rawwidth="900" data-rawheight="806" class="origin_image zh-lightbox-thumb" width="900" data-original="https://pic3.zhimg.com/28c4c679b6758707ed779c066d0e8e3a_r.jpg">对于这样的一个log likelihood function,它越平而宽,就代表我们对于参数估计的能力越差,它高而窄,就代表我们对于参数估计的能力越好,也就是信息量越大。而这个log likelihood在参数真实值处的负二阶导数,就反应了这个log likelihood在顶点处的弯曲程度,弯曲程度越大,整个log likelihood的形状就越偏向于高而窄,也就代表掌握的信息越多。

对于这样的一个log likelihood function,它越平而宽,就代表我们对于参数估计的能力越差,它高而窄,就代表我们对于参数估计的能力越好,也就是信息量越大。而这个log likelihood在参数真实值处的负二阶导数,就反应了这个log likelihood在顶点处的弯曲程度,弯曲程度越大,整个log likelihood的形状就越偏向于高而窄,也就代表掌握的信息越多。

然后,在一般情况下(under specific regularity conditions),通过对score function在真实值处泰勒展开,然后应用中心极限定理,弱大数定律,依概率一致收敛,以及Slutsky定理,可以证明MLE的渐进分布的方差是 ,即 , 这也就是 Fisher Information的第三条数学意义。不过这样说不严谨,严格的说,应该是 , 这里 是当只观察到一个X值时的Fisher Information,当有n个 i.i.d 观测值时, 。所以这时的直观解释就是,Fisher Information反映了我们对参数估计的准确度,它越大,对参数估计的准确度越高,即代表了越多的信息。

你可能感兴趣的:(学习笔记)