粒子滤波算法

1、前言

粒子滤波器是一新类型的非线性滤波器,已成为一个解决非线性滤波问题的重要工具,因为它能应用于很多领域,如信号处理、雷达和声音媒体的目标跟踪、计算机视觉、神经计算。

X n X_n Xn表示所有的目标状态序列 { x i } i = 1 n {\lbrace x_i\rbrace} _{i=1}^n {xi}i=1n
Y n Y_n Yn表示所有观测序列 { y i } i = 1 n {\lbrace y_i\rbrace} _{i=1}^n {yi}i=1n
给定观测序列 Y n Y_n Yn的条件下,所有状态 X n X_n Xn的联合后验分布为 p ( X n ∣ Y n ) p(X_n|Y_n) p(XnYn)
由于 X n X_n Xn表示的状态序列对观测者都是隐藏的,获得直接从后验分布 p ( X n ∣ Y n ) p(X_n|Y_n) p(XnYn)中随机取样通常是不可行的。因此从另外一个分布中取样,这一分布称为工具分布,用 q ( X n ∣ Y n ) q(X_n|Y_n) q(XnYn)来表示。为了使重要分布能够有效代替后验分布, q ( X n ∣ Y n ) q(X_n|Y_n) q(XnYn)必须有一个足够广的支集,以完全包括 p ( X n ∣ Y n ) p(X_n|Y_n) p(XnYn)的支集。

2、 Monte Carlo积分

所谓重要性抽样方法,即从重要性分布 q ( X n ∣ Y n ) q(X_n|Y_n) q(XnYn)中随机抽取N个统计独立且同分布的样本构成一个集合。令n时刻随机取出的样本集记为 X n ( i ) , i = 1 , 2 , . . . , N X_n^{(i)},i=1,2,...,N Xn(i),i=1,2,...,N,从零时刻开始直到n时刻,一步一步的,在状态空间中,根据重要性分布 q ( X n ∣ Y n ) q(X_n|Y_n) q(XnYn),N个样本追踪自己的“轨迹”。它们的轨迹记为 X n ( i ) X_n^{(i)} Xn(i),其中,i=1,2,…,N,称为粒子,因此面名为粒子滤波器

定义重要性函数:
(式1) r ( X n ∣ Y n ) = p ( X n ∣ Y n ) q ( X n ∣ Y n ) r(X_n|Y_n)= \frac{p(X_n|Y_n)}{q(X_n|Y_n)}\tag{式1} r(XnYn)=q(XnYn)p(XnYn)(1)
利用贝叶斯估计量的定义:
h ‾ = E p [ h ( X n ) ] = ∫ h ( X n ) p ( X n ∣ Y n ) d x n \overline h=E_p[h(X_n)]=\int h(X_n)p(X_n|Y_n)dx_n h=Ep[h(Xn)]=h(Xn)p(XnYn)dxn
改写其定义,可以改写贝叶斯估计量的公式:
(式2) h ‾ = E p [ h ( X n ) ] = ∫ h ( X n ) p ( X n ∣ Y n ) q ( X n ∣ Y n ) q ( X n ∣ Y n ) d x n = ∫ h ( X n ) r ( X n ∣ Y n ) q ( X n ∣ Y n ) d x n \overline h=E_p[h(X_n)]=\int h(X_n) \frac {p(X_n|Y_n)}{q(X_n|Y_n)} q(X_n|Y_n)dx_n = \int h(X_n)r(X_n|Y_n)q(X_n|Y_n)dx_n \tag{式2} h=Ep[h(Xn)]=h(Xn)q(XnYn)p(XnYn)q(XnYn)dxn=h(Xn)r(XnYn)q(XnYn)dxn(2)
其中 h ( X n ) h(X_n) h(Xn)作为任意函数,为了使它和粒子滤波的术语保持一致性。
在式2的贝叶斯计量上运用重要性取样方法,得到相应的Monte Carlo估计量:
(式3) h ^ n ( N ) ≈ 1 N ∑ i = 1 N w ~ n ( i ) h ( X n ( i ) \hat h_n(N) \approx \frac{1}{N}\sum _{i=1} ^N \widetilde {w}_n ^{(i)}h(X_n^{(i)} \tag{式3} h^n(N)N1i=1Nw n(i)h(Xn(i)(3)
其中
(式4) w n ( i ) = w ~ n ( i ) ∑ j = 1 N w ~ n ( j ) , i = 1 , 2 , . . . , N w_{n} ^{(i)} = \frac{\widetilde w_n ^{(i)}}{\sum _{j=1} ^N \widetilde w_n ^{(j)}},i=1,2,...,N \tag{式4} wn(i)=j=1Nw n(j)w n(i)i=1,2,...,N(4)
对有限数量的粒子,N个,估计量 h ^ n ( N ) \hat h_n(N) h^n(N)是有偏的,但是,在渐进的意义,满足下述关系:
(式5) lim ⁡ N → ∞ h ^ ( N ) → h ‾ \lim _{N \to \infty} \hat h(N) \to \overline h \tag{式5} Nlimh^(N)h(5)

取样的第二阶段背后的基本原理:
重采样的第二阶段取出的样本 x ~ n ( i ) \widetilde x_n^{(i)} x n(i),它的标准化重要性权值 w n ( i ) w_n ^{(i)} wn(i)很大,很有可能从联合后验分布 p ( X n ∣ Y n ) p(X_n|Y_n) p(XnYn);比起标准化重要性权值小的样本,应该以更大的概率选择这样的样本。
实现SIR的方式,每一次循环中进行以下操作:
(1)、采样。随机地从重要性分布 q ( X ∣ Y ) q(X|Y) q(XY)中抽取一个N个样品 { X ( i ) } \lbrace X ^{(i)}\rbrace {X(i)}_{i=1} ^N的iid集合。
(2)、加权。利用式4,计算相关的标准化权值 { w ( i ) } i = 1 N \lbrace w^{(i)}\rbrace _{i=1} ^N {w(i)}i=1N的集合。
(3)、重采样。
(i)给定中间样本 X ( 1 ) , X ( 2 ) , . . , X ( N ) X^{(1)},X^{(2)},..,X^{(N)} X(1),X(2),..,X(N),条件独立地抽取含L个离散随机变量 { I 1 , I 2 , . . . , I N } \lbrace I^{1},I^{2},...,I^{N} \rbrace {I1,I2,...,IN}的集合,从集合 { 1 , 2 , . . N } \lbrace1,2,..N \rbrace {1,2,..N}中依概率 ( w 1 , w 2 , . . , w N ) (w^{1},w^{2},..,w^{N}) (w1,w2,..,wN)取值,如以下例子所示:
P ( I ( 1 ) = j ) = w ( j ) , j = 1 , 2 , . . . , N P(I^{(1)}=j)=w^{(j)},j=1,2,...,N P(I(1)=j)=w(j),j=1,2,...,N
I ( 2 ) , . . , I ( L ) I^{(2)},..,I^{(L)} I(2),..,I(L)等,典型地,有 L ≤ N L\leq N LN
(i)设 X ~ ( i ) = X ( I j ) \widetilde X ^{(i)}= X^{(I_j)} X (i)=X(Ij),其中 i = 1 , 2 , . . . , L i=1,2,...,L i=1,2,...,L
集合 { I ( 1 ) , I ( 2 ) , . . , I ( L ) } \lbrace I^{(1)}, I^{(2)},.., I^{(L)}\rbrace {I(1),I(2),..,I(L)}被认为是多项式实验过程,因此,根据SIR方法被描述为一种多项式类型。

你可能感兴趣的:(神经网络与机器学习笔记)