最大似然估计,最小二乘估计,卡尔曼滤波,三者的相互关系

卡尔曼滤波博大精深,如果仅仅满足于知道它的五个公式,而不知道它的来龙去脉和应用场景,那么,这些本事以后恐怕是上不了台面的.所以,虽然我们不求把背景知识都摸透,但是起码将它的每一步都弄清楚,这是很有必要的.

首先假设我们看了且熟悉了卡尔曼滤波的推导,自己多推导几遍.其中最重要的一步:求K,方法是对协方差矩阵的迹求导,为什么,这就牵扯到了最大似然和最小二乘这两个估计方法.

然后看最大似然估计:这篇文章,浅显易懂.简言之,已知一堆样本和模型,求模型参数使得样本的联合概率最大.

再看最小二乘估计:看《最优状态估计》这本书(讲得非常好,例子也很好),简言之,已知一堆观测值和模型,求解估计值使得估计值与真实观测值方差之和最小

那么,C23=3,三种关系我们一一来分解:

①最大似然和最小二乘:

       为了不过多的牵扯数学,有此结论:当模型是高斯分布时,最大似然估计和最小二乘估计是等价的,为什么,看:

       最小二乘法:

     

        高斯下的最大似然估计:

     最大似然估计,最小二乘估计,卡尔曼滤波,三者的相互关系_第1张图片

        为了得到最大的概率,相当于去求最小的方差。可见,它和最小二乘法的诉求是一样的。    

②最小二乘和卡尔曼滤波:

    最小二乘法有三种:

        估计常值的,观测值加权的,递推的。

        其中,递推的最小二乘法如下:

        也是想使方差之和最小,然后发现,方差之和就是状态的协方差矩阵的迹,迹里面又包含了K,所以也就是求K使得迹最小

      最大似然估计,最小二乘估计,卡尔曼滤波,三者的相互关系_第2张图片

        结果:

最大似然估计,最小二乘估计,卡尔曼滤波,三者的相互关系_第3张图片

        而卡尔曼滤波的形式如下:

      最大似然估计,最小二乘估计,卡尔曼滤波,三者的相互关系_第4张图片

       形式非常接近。       

        可见相比递推最小二乘法,卡尔曼就是相当于在两次迭代之间多了一步系统的状态转移,也就是这一项。

        其实,卡尔曼滤波就是递推最小二乘法的一种特殊情况,卡尔曼滤波也是去通过最小化方差来求得最优的估计值。

③最大似然和卡尔曼滤波:

        看了前两项我们就清楚了,在高斯的前提下,最大似然和最小二乘是一样的。   

你可能感兴趣的:(最大似然估计,最小二乘估计,卡尔曼滤波,三者的相互关系)