详解统计信号处理之 克拉美罗界

各种研究领域(包括无线定位方向)都会碰到参数估计的问题,这时常常会看到克拉美罗界 (Cramér–Rao bound)  这个东西。很多随机信号的书都会介绍什么是克拉美罗界,但初学者学起来往往很吃力,本文从直观上简单讨论一下克拉美罗界的各个方面。

什么是参数估计问题

  假设一种最简单的情况:

    一个物理量为技术分享,我们使用某种方式去观测它,观测值为技术分享,由于存在噪声,此时技术分享技术分享为高斯噪声,技术分享

这种情况下,我们自然会直接使用观测值技术分享去估计技术分享,这时就会存在估计的误差,直观地理解,噪声的方差技术分享越大,估计就可能越不准确。

为什么要讨论克拉美罗界

  讨论克拉美罗界就是为了使用这个标准来衡量无偏估计量的性能。

  采用上面的方式,使用技术分享去估计技术分享,这个估计值会在真实值附近波动(看作随机变量)。我们需要使用一些标准来衡量这种估计的好坏,一个标准是估计值的平均,这里的这个估计量是无偏估计量。另一标准是这个估计值波动的剧烈程度,也就是方差。上面这个问题中,克拉美罗界就等于这个方差。

  可是为什么不直接讨论方差而要去计算克拉美罗界呢,因为方差是针对某一种特定的估计量(或者理解为估计方式)而言的,在上面的例子中,方差是估计量技术分享的方差(技术分享)。对于稍微复杂一点点的问题,对技术分享的可以有各种不同的估计量,它们分别的方差是不同的。显然,对于无偏估计量而言,方差越小的估计方式性能越好,但是这个方差有一个下界,就是我们的克拉美罗界。

直观地理解克拉美罗界

  克拉美罗界本身不关心具体的估计方式,只是去反映:利用已有信息所能估计参数的最好效果。

  还是上面那个参数估计问题,当我们观察到技术分享的时候,我们可以知道真实值技术分享的概率密度分布是以技术分享为均值,技术分享为方差的正态分布,即:

技术分享

                  技术分享技术分享

上图给出了两个似然函数的例子,直观地看,似然函数的“尖锐”性决定了我们估计位置参数技术分享的精度。这个“尖锐”性可以用对数似然函数峰值处的负的二阶导数来度量,即对数似然函数的曲率(对数似然函数就是在似然函数的基础山加一个自然对数,这样有利于计算)。计算过程我就不写了,有兴趣的可以自己算算,算完之后结果为:技术分享,是噪声的方差的倒数,也就是噪声越小,对数似然函数越尖锐。

  所以,可以这样理解,似然函数的“尖锐”程度,或者,符合似然函数分布的这组数据的方差,就是克拉美罗界。

不同的估计量(估计方式)是什么意思

  让我们来分析一个稍微复杂一点点的参数估计问题:

    一个物理量为技术分享,我们使用某种方式去观测它,观测值为技术分享技术分享,这是两个不同时刻的观测结果,一样的高斯噪声技术分享

  这种情况下,我们要估计技术分享,正常人可能会采用估计量技术分享,即前后两个观测的平均,也有人可能觉得这样计算量有点大,于是总是直接使用技术分享去估计技术分享,也有人觉得第二个观测值可能会受到系统影响而不准确,他更相信前面的观察值,于是总采取这样的估计量技术分享。这三个估计量都是无偏的:

  估计量技术分享的方差为:技术分享

  估计量技术分享的方差为:技术分享

  估计量技术分享的方差为:技术分享

  比较上面的三种估计量,第一种的方差最小,它的估计效果较好。实际上,如果第二个观测值真的不太准确,也就是后一个高斯噪声较大,这样的话也许第二个估计量就比较合适了。

  因此,不同的考虑方式可以产生各种不同的估计算法,这些不同的估计量都是在真实值附近波动的随机变量(有的有偏,有的无偏),它们分别的方差也是不一样的,但是数学家们证明了:任何无偏估计量的方差必定大于等于克拉美罗界。

 克拉美罗界的基本计算

  我们假设这两次观察互相独立,仅受相同的高斯白噪声影响,那么根据已有的信息,真实值技术分享的似然函数为两个正态的概率密度分布相乘:(注意:pdf实际上应该再进行归一化处理,但是我们之后使用对数似然函数,乘不乘归一化系数都无所谓,对数之后变成了常数,求导的时候就没了)

技术分享

与之前一样,可以计算出对数似然函数的二阶导数,得到结果为:技术分享。实际上,当观测数目为技术分享的时候,这个值将会是技术分享。也就是说,使用多个观测值的信息时,对数似然函数越“尖锐”。这个二阶导数(曲率)更一般的度量是(下面用技术分享来表示要估计的参数技术分享):

技术分享

它度量了对数似然函数的平均曲率(很多情况下曲率与技术分享的值有关,取数学期望使得它仅为技术分享的函数),被称为数据技术分享的Fisher信息技术分享,直观地理解,信息越多,下限越低,它具有信息测度的基本性质(非负的、独立观测的可加性)。一般来说,Fisher信息的倒数就是克拉美罗界了,任何无偏估计量技术分享的方差满足:

技术分享

大多情况下,这个不等式的右边(克拉美罗界)是技术分享的函数。

克拉美罗界的标准定义

   (定理:Cramer-Rao下限----标量参数)

  假定PDF 技术分享满足“正则”条件(对于所有的技术分享):

技术分享

其中数学期望是对技术分享 求取的。那么,任何无偏估计量技术分享的方差必定满足:

技术分享

其中导数是在技术分享的真值处计算的,数学期望是对技术分享求取的。而且,对于某个函数技术分享技术分享,当且仅当

技术分享

时,对所有技术分享达到下限的无偏估计量就可以求得。这个估计量是技术分享,它是MVU估计量(最小方差无偏估计),最小方差是技术分享

总结

  估计一个参数,根据已有信息得到了似然函数(或者pdf),这个pdf的“尖锐”性,或者,符合似然函数分布的这组数据的方差,就是克拉美罗界,它可以通过对对数似然函数求二阶导再取倒数得到。克拉美罗界的计算不依赖具体的估计方式,它可以用来作为一个衡量估计方式好坏的标准,及估计量的方差越靠近克拉美罗界,效果越好。

 https://en.wikipedia.org/wiki/Cramér–Rao_bound

(注:本文主要参考《统计信号处理基础-估计与检测理论》-国外电子与通信教材系列)

 

在参数估计和统计中,Cramer-Rao界限(Cramer-Rao bound, CRB)或者Cramer-Rao下界(CRLB),表示一个确定性参数的估计的方差下界。命名是为了纪念Harald Cramer和Calyampudi Radhakrishna Rao。这个界限也称为Cramer-Rao不等式或者信息不等式。

它的最简单形式是:任何无偏估计的方差至少大于Fisher信息的倒数。一个达到了下界的无偏估计被称为完全高效的(fully efficient)。这样的估计达到了所有无偏估计中的最小均方误差(MSE,mean square error),因此是最小方差无偏(MVU,minimum variance unbiased)估计。

给定偏倚,Cramer-Rao界限还可以用于确定有偏估计的界限。在一些情况下,有偏估计方法的结果可能方差和均方差都小于无偏估计的Cramer-Rao下界。

标量情形

标量的无偏情形

假设 θ 是一个位置确定性参数。我们需要从观察变量 x 估计它。而它们满足一个概率密度函数 f(x;θ) 。任何 θ 的无偏估计 θ^ 的方差的下界为Fisher信息 I(θ) 的倒数: 

Varθ^1I(θ)

其中Fisher信息定义为 
I(θ)=E[(lnf(x;θ)θ)2]=E[2lnf(x;θ)θ2]

其中 E 表示求期望。

无偏估计 θ^ 的效率描述估计的方差有多接近下限,定义为 

e(θ)=I(θ)1Var(σ^)

显然有 
0e(σ^)1

标量的一般情形

更一般的情况是考虑参数 θ 的无偏估计 T(X) 。这里的无偏性理解为 E[T(X)]=ϕ(θ) 。这种情况下,方差的下界为 

Var(T)[ϕ(θ)]2I(θ)

其中 ϕ(θ) 表示 ϕ(θ) 关于 θ 的导数, I(θ) 仍然是Fisher信息。

有偏估计的界限

考虑估计 θ^ ,设其偏倚 b(θ)=E[θ^]θ ,令 ϕ(θ)=b(θ)+θ 。利用上式,任何期望为 ϕ(θ) 的无偏估计的方差都大于等于 (ϕ(θ)2)/I(θ)) 。于是 

Var(θ^)[1+b(θ)]2I(θ)

b(θ)=0 ,上式退化为无偏估计得方差界限。当估计 θ^ 退化为常数(概率密度函数为脉冲函数),则方差退化为0。

从上式,利用标准分解可以推出有偏估计的均方误差下界为 

E[(θ^θ)2][1+b(θ)]2I(θ)+b(θ)2

注意,如果 1+b(θ)<1 ,那么上式右端的下界可能小于Cramer-Rao下界。例如,当 1+b(θ)=nn+2<1

多元变量的情形

定义向量 θ=[θ1,θ2,,θd]TRd ,它的概率密度函数为 f(x;θ) 满足后面的两个正则化条件。Fisher信息矩阵是一个 d×d 的矩阵,元素 Im,k 定义为 

Im,k=E[θmlnf(x;θ)θklnf(x;θ)]=E[2θmθklnf(x;θ)]

T(X) 为一个向量函数的估计, T(X)=(T1(X),T2(X),,Td(X))T ,记它的期望向量 E[T(X)] ϕ(θ) 。Cramer-Rao下界认为T(X)的协方差矩阵满足 

Covθ(T(X))ϕ(θ)θ[I(θ)]1(ϕ(θ)θ)T

其中

  • 矩阵大于等于符号 AB 表示 AB 是一个半正定矩阵;
  • ϕ(θ)/θ 是雅克比矩阵,它的第 ij 个元素为 ϕi(θ)/θj

T(X) θ 的无偏估计(例如 T(θ)=θ ),则Cramer-Rao法则退化为 

Covθ(T(X))I(θ)1

两个正则化条件

边界依赖两个关于 f(x;θ) T(X) 的弱正则化条件:

  • Fisher信息矩阵总是存在。等价地说,对于所有 x ,如果 f(x;θ)>0 ,则 lnf(x;θ)/θ 存在并且有限。
  • x 的积分和对 θ 的微分可以交换顺序。也就是说,在下式右侧有限时,有 
    θ[T(x)f(x;θ)dx]=T(x)[θf(x;θ)]dx

上述条件通常可以通过以下任意一个条件来确认:

  1. 函数 f(x;θ) x 中有边界支持,并且边界不依赖于 θ
  2. 函数 f(x;θ) 有有限的支持,连续可微,并且对于所有 θ 积分收敛。

标量情形的证明

假设 T=t(X) 是一个 ϕ(θ) 的无偏估计,且 E(T)=ϕ(θ) 。目标是证明,对于所有 θ , 

Var(t(X))[ϕ(θ)]2I(θ)

X 为随机变量,且概率密度函数为 f(x;θ) T=t(X) 为统计量,且作为 ϕ(θ) 的估计。定义 V 为概率密度函数关于 θ 的偏导数 

V=θlnf(X;θ)=1f(X;θ)θf(X;θ)

可以发现, V 的概率密度函数也是 f(X;θ) 。利用第二个正则化条件,可以得到 V 的期望为0。即 
E(V)=f(x;θ)[1f(x;θ)θf(x;θ)]dx=θ[f(x;θ)dx]=0

因为 E(V)=0 ,由协方差定义式可以推出 Cov(V,T)=E(VT) 。展开可以得到 
Cov(V,T)= = = =E(T[1f(X;θ)θf(X;θ)])t(x)[1f(x;θ)θf(x;θ)]f(x;θ)dxθ[t(x)f(x;θ)dx]ϕ(θ)

由柯西-施瓦茨不等式可得 
Var(T)Var(V)|Cov(V,T)|=|ϕ(θ)|

因此 
Var(T)[ϕ(θ)]2Var(V)=[ϕ(θ)]2I(θ)

参考文献

https://en.wikipedia.org/wiki/Cram%C3%A9r%E2%80%93Rao_bound#Regularity_conditions

 

作者: rubbninja
出处: http://www.cnblogs.com/rubbninja/
版权声明:本文版权归作者和博客园共有,转载请注明出处。

你可能感兴趣的:(定位,算法,crb)