16 粒子滤波:Particle Filter

1 背景介绍

16 粒子滤波:Particle Filter_第1张图片
Dynamic Model 是在概率图模型中加入了时序的因素,所以样本之间不再是独立同分布(i.i.d) 的,而是有依赖关系的。而Dynamic Model 的一个主要特点是,混合模型。因为,我们看到的都是观测变量序列,而每一个观测变量都对应着一个隐变量,隐变量也被称之为系统变量(System Variable),所以有时我们也将Dynamic Model 称之为State Space Model。而Dynamic Model 我们可以从两个假设,两个方程,三个问题的角度去分析。

1.1 两个假设

这是有关Dynamic Model 的两个假设,也是我们研究这个模型的前提条件。这两个假设可以大大
的帮助我们简化模型:

  1. 齐次Markov 假设(无后向性):未来与过去无关,只依赖与当前的状态。数学公式描述也就是。
    P ( i t + 1 ∣ i t , i t − 1 , ⋯   , i 1 , o t , ⋯   , o 1 ) = P ( i t + 1 ∣ i t )          ( 1 ) P\left(i_{t+1} | i_{t}, i_{t-1}, \cdots, i_{1}, o_{t}, \cdots, o_{1}\right)=P\left(i_{t+1} | i_{t}\right) \ \ \ \ \ \ \ \ (1) P(it+1it,it1,,i1,ot,,o1)=P(it+1it)        1
  2. 观测独立假设:当前时刻的观测变量只依赖于当前时刻的隐变量。
    P ( o t ∣ i t , i t − 1 , ⋯   , i 1 , o t , ⋯   , o 1 ) = P ( o t ∣ i t )          ( 2 ) P\left(o_{t} | i_{t}, i_{t-1}, \cdots, i_{1}, o_{t}, \cdots, o_{1}\right)=P\left(o_{t} | i_{t}\right) \ \ \ \ \ \ \ \ (2) P(otit,it1,,i1,ot,,o1)=P(otit)        2

1.2 两个方差

这两个方程分别描述的是,隐变量状态与状态之间的转移概率,由当前时刻隐变量推出当前时刻 观测变量的概率,公式化描述如下所示:
{ z t = g ( z t − 1 , μ , ξ ) x t = h ( z t , μ , δ )             ( 3 ) \left\{\begin{array}{l} z_{t}=g\left(z_{t-1}, \mu, \xi\right) \\ x_{t}=h\left(z_{t}, \mu, \delta\right) \end{array}\right. \ \ \ \ \ \ \ \ \ \ \ (3) {zt=g(zt1,μ,ξ)xt=h(zt,μ,δ)           3
经过类比, 我们就可以很简单的发现, g ( ⋅ ) g(\cdot) g() 函数就是 HMM 中的状态转移矩阵 A , h ( ⋅ ) A, h(\cdot) A,h() 函数就是 H M M \mathrm{HMM} HMM 中的发射转移矩阵 B B B

1.3 两大类问题

在 Dynamic Model 中,我们主要可以分为三大类问题。

1.3.1 隐马尔可夫模型 (Hidden Markov Model)

这个在之前的章节中,我们已经有了详细的讲解。主要特点就是,隐状态 z z z 之间是离散的,而观 测变量 s s s 之间并没有限制。在 Hidden Markov Model 中,主要关注的是 Decoding 问题,也就是在已 知观测序列的情况下,最大化可能的隐状态。

1.3.2 线性动态系统 (Linear Dynamic System)

线性动态系通常也被我们称为线性高斯系统,而线性高斯系统这个名字更加形象,而线性和高斯 的来源主要如下所示:
{ z t = A ⋅ z t − 1 + B + ϵ ϵ ∼ N ( 0 , Q ) x t = C ⋅ z t + D + δ δ ∼ N ( 0 , R )        ( 4 ) \left\{\begin{array}{l} z_{t}=A \cdot z_{t-1}+B+\epsilon \quad \epsilon \sim \mathcal{N}(0, Q) \\ x_{t}=C \cdot z_{t}+D+\delta \quad \delta \sim \mathcal{N}(0, R) \end{array}\right. \ \ \ \ \ \ (4) {zt=Azt1+B+ϵϵN(0,Q)xt=Czt+D+δδN(0,R)      4

也就是式 (3) 中的两个酸数将符合线性和和声符合 Gaussian Distribution 的原则。而 Dynamic Model中重点关注的就是 Filter 问题,Filter 问题就是求解 P ( z t ∣ x 1 , x 2 , ⋯   , x t ) , P\left(z_{t} | x_{1}, x_{2}, \cdots, x_{t}\right), P(ztx1,x2,,xt), 在已知观测序列的情况下,求解当前时刻的隐变量的状态。

1.3.3 Filter 问题的求解

我们的求解目标是 P ( z t ∣ x 1 , x 2 , ⋯   , x t ) P\left(z_{t} | x_{1}, x_{2}, \cdots, x_{t}\right) P(ztx1,x2,,xt)
Step 1. Prediction:这个过程我们可以理解成给 z t z_{t} zt 一个先验
P ( z t ∣ x 1 , x 2 , ⋯   , x t − 1 ) = ∫ z t − 1 P ( z t ∣ z t − 1 ) P ( z t − 1 ∣ x 1 , x 2 , ⋯   , x t − 1 ) d z t − 1        ( 5 ) P\left(z_{t} | x_{1}, x_{2}, \cdots, x_{t-1}\right)=\int_{z_{t-1}} P\left(z_{t} | z_{t-1}\right) P\left(z_{t-1} | x_{1}, x_{2}, \cdots, x_{t-1}\right) d z_{t-1} \ \ \ \ \ \ (5) P(ztx1,x2,,xt1)=zt1P(ztzt1)P(zt1x1,x2,,xt1)dzt1      5
Step 2. Update:这个过程我们可以理解成给 z t z_{t} zt 在已知 x t x_{t} xt 之后的后验
P ( z t ∣ x 1 , x 2 , ⋯   , x t ) ∝ P ( x t ∣ z t ) ⋅ P ( z t ∣ x 1 , x 2 , ⋯   , x t − 1 )        ( 6 ) P\left(z_{t} | x_{1}, x_{2}, \cdots, x_{t}\right) \propto P\left(x_{t} | z_{t}\right) \cdot P\left(z_{t} | x_{1}, x_{2}, \cdots, x_{t-1}\right) \ \ \ \ \ \ (6) P(ztx1,x2,,xt)P(xtzt)P(ztx1,x2,,xt1)      6

1.3.4 Preiction 的证明

P ( z t ∣ x 1 , x 2 , ⋯   , x t − 1 ) = ∫ z t − 1 P ( z t , z t − 1 ∣ x 1 , x 2 , ⋯   , x t − 1 ) d z t − 1 = ∫ z t − 1 P ( z t ∣ z t − 1 , x 1 , x 2 , ⋯   , x t − 1 ) P ( z t − 1 ∣ x 1 , x 2 , ⋯   , x t − 1 ) d z t − 1        ( 7 ) \begin{aligned} P\left(z_{t} | x_{1}, x_{2}, \cdots, x_{t-1}\right) &=\int_{z_{t-1}} P\left(z_{t}, z_{t-1} | x_{1}, x_{2}, \cdots, x_{t-1}\right) d z_{t-1} \\ &=\int_{z_{t-1}} P\left(z_{t} | z_{t-1}, x_{1}, x_{2}, \cdots, x_{t-1}\right) P\left(z_{t-1} | x_{1}, x_{2}, \cdots, x_{t-1}\right) d z_{t-1} \end{aligned} \ \ \ \ \ \ (7) P(ztx1,x2,,xt1)=zt1P(zt,zt1x1,x2,,xt1)dzt1=zt1P(ztzt1,x1,x2,,xt1)P(zt1x1,x2,,xt1)dzt1      7
根据 Markov 齐次假设, P ( z t ∣ z t − 1 , x 1 , x 2 , ⋯   , x t − 1 ) = P ( z t ∣ z t − 1 ) , P ( z t − 1 ∣ x 1 , x 2 , ⋯   , x t − 1 ) P\left(z_{t} | z_{t-1}, x_{1}, x_{2}, \cdots, x_{t-1}\right)=P\left(z_{t} | z_{t-1}\right), P\left(z_{t-1} | x_{1}, x_{2}, \cdots, x_{t-1}\right) P(ztzt1,x1,x2,,xt1)=P(ztzt1),P(zt1x1,x2,,xt1) 就是
t − 1 t-1 t1 时刻的 data。替换一下就可以得到公式(5)。

1.3.5 Update 的证明

首先,我们提一下, P ( x 1 , x 2 , ⋯   , x t ) P\left(x_{1}, x_{2}, \cdots, x_{t}\right) P(x1,x2,,xt) 这种,只和观察数据有关的概率分布都是可以计算出来的, 我们都用不同的常数来表示。
P ( z t ∣ x 1 , x 2 , ⋯   , x t ) = P ( z t , x 1 , x 2 , ⋯   , x t ) P ( x 1 , x 2 , ⋯   , x t ) = 1 C P ( z t , x 1 , x 2 , ⋯   , x t ) = 1 C P ( x t ∣ z t , x 1 , x 2 , ⋯   , x t − 1 ) ⏟ P ( x t ∣ z t ) P ( z t , x 1 , x 2 , ⋯   , x t − 1 ) = 1 C P ( x t ∣ z t ) P ( z t ∣ x 1 , x 2 , ⋯   , x t − 1 ) P ( x 1 , x 2 , ⋯   , x t − 1 ) ⏟ const  D = D C P ( x t ∣ z t ) P ( z t ∣ x 1 , x 2 , ⋯   , x t − 1 )              ( 8 ) \begin{aligned} P\left(z_{t} | x_{1}, x_{2}, \cdots, x_{t}\right) &=\frac{P\left(z_{t}, x_{1}, x_{2}, \cdots, x_{t}\right)}{P\left(x_{1}, x_{2}, \cdots, x_{t}\right)} \\ &=\frac{1}{C} P\left(z_{t}, x_{1}, x_{2}, \cdots, x_{t}\right) \\ &=\frac{1}{C} \underbrace{P\left(x_{t} | z_{t}, x_{1}, x_{2}, \cdots, x_{t-1}\right)}_{P\left(x_{t} | z_{t}\right)} P\left(z_{t}, x_{1}, x_{2}, \cdots, x_{t-1}\right) \\ &=\frac{1}{C} P\left(x_{t} | z_{t}\right) P\left(z_{t} | x_{1}, x_{2}, \cdots, x_{t-1}\right) \underbrace{P\left(x_{1}, x_{2}, \cdots, x_{t-1}\right)}_{\text {const } D} \\ &=\frac{D}{C} P\left(x_{t} | z_{t}\right) P\left(z_{t} | x_{1}, x_{2}, \cdots, x_{t-1}\right) \end{aligned} \ \ \ \ \ \ \ \ \ \ \ \ (8) P(ztx1,x2,,xt)=P(x1,x2,,xt)P(zt,x1,x2,,xt)=C1P(zt,x1,x2,,xt)=C1P(xtzt) P(xtzt,x1,x2,,xt1)P(zt,x1,x2,,xt1)=C1P(xtzt)P(ztx1,x2,,xt1)const D P(x1,x2,,xt1)=CDP(xtzt)P(ztx1,x2,,xt1)            8
P ( x t ∣ z t ) P\left(x_{t} | z_{t}\right) P(xtzt) 就是发射矩阵 , P ( z t ∣ x 1 , x 2 , ⋯   , x t − 1 ) , P\left(z_{t} | x_{1}, x_{2}, \cdots, x_{t-1}\right) ,P(ztx1,x2,,xt1) 就是 t − 1 t-1 t1 时刻的 Prediction。由于多维Gaussian Distribution 非常强大的自共轭性,所以条件概率,边缘概率,联合概率这些都是Gaussian Distribution 的,所以可以将高维的高斯分布进行拆解成多个低维的来进行求解就会简单一点。而Linear Dynamic System 也被称为Kalman Filter。

1.4 非线性动态系统(Non-Linear Dynamic System)

Non-Linear Dynamic System 和Linear Dynamic System 区别是,相邻两个隐变量状态 z t z_t zt z t − 1 z_{t−1} zt1之间的关系是任意的,而且,Noise 也是Gaussian 的。所以,无法使用Kalman Filter 一样的方法得到解析解。所以,只能采用Monte-Carlo Sampling 一样的采样方法来得出近似解。
Non-Linear 没有那么好的特征,求不出,只能采样。在贝叶斯框架的Inference 主要要求解的是一个后验分布 P ( Z ∣ X ) P(Z | X) P(ZX) 。而这个分布主要是用来求解期望,國 z ∣ x [ f ( x ) ] = ∫ f ( z ) p ( z ∣ x ) d x _{z | x}[f(x)]=\int f(z) p(z | x) d x zx[f(x)]=f(z)p(zx)dx 。如果,我们 可以采取 N N N 个样本, z ( i ) ∼ P ( Z ∣ X ) , { z ( 1 ) , z ( 2 ) , ⋯   , z ( N ) } z^{(i)} \sim P(Z | X),\left\{z^{(1)}, z^{(2)}, \cdots, z^{(N)}\right\} z(i)P(ZX),{z(1),z(2),,z(N)} 。那么,我们就可以通过 1 N ∑ i = 1 N f ( z ( i ) ) \frac{1}{N} \sum_{i=1}^{N} f\left(z^{(i)}\right) N1i=1Nf(z(i))
求解。这就是最簡单的 Monte-Carlo Sampling 的方法。

2 重要性采样(Importance Sampling)

Filter的预测过程:
P ( z t ∣ x 1 , x 2 , ⋯   , x t − 1 ) = ∫ z t − 1 P ( z t ∣ z t − 1 ) P ( z t − 1 ∣ x 1 , x 2 , ⋯   , x t − 1 ) d z t − 1 = E p ( z ) [ f ( z ) ] P\left(z_{t} | x_{1}, x_{2}, \cdots, x_{t-1}\right)=\int_{z_{t-1}} P\left(z_{t} | z_{t-1}\right) P\left(z_{t-1} | x_{1}, x_{2}, \cdots, x_{t-1}\right) d z_{t-1} =\mathbb{E}_{p(z)}[f(z)] P(ztx1,x2,,xt1)=zt1P(ztzt1)P(zt1x1,x2,,xt1)dzt1=Ep(z)[f(z)]
但是对 P ( z t − 1 ∣ x 1 , x 2 , ⋯   , x t − 1 ) P\left(z_{t-1} | x_{1}, x_{2}, \cdots, x_{t-1}\right) P(zt1x1,x2,,xt1)进行采用采样十分困难。因此引入 q ( z ) q(z) q(z)进行重要性采样。
重要性采样并不是直接对概率分布进行采样,而是对提议 (Proposal) 分布进行采样。也就是:
E p ( z ) [ f ( z ) ] = ∫ p ( z ) f ( z ) d z = ∫ p ( z ) q ( z ) q ( z ) f ( z ) d z = ∫ f ( z ) p ( z ) q ( z ) q ( z ) d z ≈ 1 N ∑ i = 1 N f ( z i ) p ( z i ) q ( z i ) ( z i ∼ q ( z ) , i = 1 , 2 , ⋯   , N )              ( 9 ) \begin{aligned} \mathbb{E}_{p(z)}[f(z)]=\int p(z) f(z) d z &=\int \frac{p(z)}{q(z)} q(z) f(z) d z \\ &=\int f(z) \frac{p(z)}{q(z)} q(z) d z \\ & \approx \frac{1}{N} \sum_{i=1}^{N} f\left(z_{i}\right) \frac{p\left(z_{i}\right)}{q\left(z_{i}\right)}\left(z_{i} \sim q(z), i=1,2, \cdots, N\right) \end{aligned} \ \ \ \ \ \ \ \ \ \ \ \ (9) Ep(z)[f(z)]=p(z)f(z)dz=q(z)p(z)q(z)f(z)dz=f(z)q(z)p(z)q(z)dzN1i=1Nf(zi)q(zi)p(zi)(ziq(z),i=1,2,,N)            9
而这里的 p ( z i ) q ( z i ) \frac{p\left(z_{i}\right)}{q\left(z_{i}\right)} q(zi)p(zi) 也就是Weight,用来平衡不同的概率密度值之间的差距。同样重要性采样也可能会出现一些问题,就是两个分布之间的差距太大了话,总是采样采不到重要的样本,采的可能都是实际分布概率值小的部分。也就是采样效率不均匀的问题。
之后为了方便描述,我们用 x 1 : t = x 1 , x 2 , ⋯   , x t x_{1: t}=x_{1}, x_{2}, \cdots, x_{t} x1:t=x1,x2,,xt
如果是在 Filtering 的问题中,目标是求解 P ( z t ∣ x 1 : t ) , P\left(z_{t} | x_{1: t}\right), P(ztx1:t), 权值为:
w t ( i ) = P ( z t ( i ) ∣ x 1 : t ) Q ( z t ( i ) ∣ x 1 : t )              ( 10 ) w_{t}^{(i)}=\frac{P\left(z_{t}^{(i)} | x_{1: t}\right)}{Q\left(z_{t}^{(i)} | x_{1: t}\right)} \ \ \ \ \ \ \ \ \ \ \ \ (10) wt(i)=Q(zt(i)x1:t)P(zt(i)x1:t)            10
而在每一个时刻,都有 N 个样本点:
t = 1 : w 1 ( i ) , i = 1 , 2 , ⋯   , N ∼ w 1 ( 1 ) , w 1 ( 2 ) , ⋯   , w 1 ( N ) t = 2 : w 2 ( i ) , i = 1 , 2 , ⋯   , N ∼ w 2 ( 1 ) , w 2 ( 2 ) , ⋯   , w 2 ( N ) ⋯ t = T : w T ( i ) , i = 1 , 2 , ⋯   , N ∼ w T ( 1 ) , w T ( 2 ) , ⋯   , w T ( N )              ( 11 ) \begin{array}{l} t=1: w_{1}^{(i)}, i=1,2, \cdots, N \sim w_{1}^{(1)}, w_{1}^{(2)}, \cdots, w_{1}^{(N)} \\ t=2: w_{2}^{(i)}, i=1,2, \cdots, N \sim w_{2}^{(1)}, w_{2}^{(2)}, \cdots, w_{2}^{(N)} \\ \cdots \\ t=T: w_{T}^{(i)}, i=1,2, \cdots, N \sim w_{T}^{(1)}, w_{T}^{(2)}, \cdots, w_{T}^{(N)} \end{array} \ \ \ \ \ \ \ \ \ \ \ \ (11) t=1:w1(i),i=1,2,,Nw1(1),w1(2),,w1(N)t=2:w2(i),i=1,2,,Nw2(1),w2(2),,w2(N)t=T:wT(i),i=1,2,,NwT(1),wT(2),,wT(N)            11
而实际上 P ( z t ( i ) ∣ x 1 : t ) P\left(z_{t}^{(i)} | x_{1: t}\right) P(zt(i)x1:t) 的求解非常的复杂,而这样的迭代式求解,实际上复杂度非常的高。我们计算起 来非常的复杂。我们想在 w T ( i ) w_{T}^{(i)} wT(i) w T − 1 ( i ) w_{T-1}^{(i)} wT1(i) 之间寻找一个递推关系式来大大的简化计算。然后就引出了下 面的 Sequential Importance Sampling (SIS) 算法。

3 顺序重要性采样(Sequential Importance Sampling)

这个算法中的主要思想就是,找到 w T ( i ) w_{T}^{(i)} wT(i) w T − 1 ( i ) w_{T-1}^{(i)} wT1(i) 之间的一个递推关系式来简化计算。
在这个算法的开始,做出了一个我觉得有点神奇的铺垫。那就是将求解的重点对目标分布做了一个转变:
P ( z t ∣ x 1 : t ) ⟶ P ( z 1 : t ∣ x 1 : t )              ( 12 ) P\left(z_{t} | x_{1: t}\right) \longrightarrow P\left(z_{1: t} | x_{1: t}\right) \ \ \ \ \ \ \ \ \ \ \ \ (12) P(ztx1:t)P(z1:tx1:t)            12
转变方式如下:
16 粒子滤波:Particle Filter_第2张图片
16 粒子滤波:Particle Filter_第3张图片
实际上 P ( z t ∣ x 1 : t ) P\left(z_{t} | x_{1: t}\right) P(ztx1:t) P ( z 1 : t ∣ x 1 : t ) P\left(z_{1: t} | x_{1: t}\right) P(z1:tx1:t) 的一个边缘概率分布, 根据上述推导自然我们可以直接丢弃 z 1 : t − 1 z_{1: t-1} z1:t1 从而使得 P ( z t ∣ x 1 : t ) P\left(z_{t} | x_{1: t}\right) P(ztx1:t) P ( z 1 : t ∣ x 1 : t ) P\left(z_{1: t} | x_{1: t}\right) P(z1:tx1:t) 等价处理。

P ( z 1 : t ∣ x 1 : t ) P\left(z_{1: t} | x_{1: t}\right) P(z1:tx1:t) 对应的权重 w t ( i ) w_{t}^{(i)} wt(i) 为:
w t ( i ) ∝ P ( z 1 : t ( i ) ∣ x 1 : t ) Q ( z 1 : t ( i ) ∣ x 1 : t )              ( 13 ) w_{t}^{(i)} \propto \frac{P\left(z_{1: t}^{(i)} | x_{1: t}\right)}{Q\left(z_{1: t}^{(i)} | x_{1: t}\right)} \ \ \ \ \ \ \ \ \ \ \ \ (13) wt(i)Q(z1:t(i)x1:t)P(z1:t(i)x1:t)            13
我们要将这个公式中的分子和分母拆开进行化简。

3.1 分子 P ( z 1 : t ( i ) ∣ x 1 : t ) P\left(z_{1: t}^{(i)} | x_{1: t}\right) P(z1:t(i)x1:t) 解析

P ( z 1 : t ( i ) ∣ x 1 : t ) = P ( z 1 : t ( i ) , x 1 : t ) P ( x 1 : t ) = 1 C P ( z 1 : t ( i ) , x 1 : t ) = 1 C P ( x t ∣ z 1 : t ( i ) , x 1 : t − 1 ) ⏟ P ( x t ∣ z t ( t ) ) P ( z 1 : t ( i ) , x 1 : t − 1 ) = 1 C P ( x t ∣ z t ( i ) ) P ( z t ( i ) ∣ z 1 : t − 1 ( i ) , x 1 : t − 1 ) ⏟ P ( z t ( t ) ∣ z t − 1 ) P ( z 1 : t − 1 ( i ) , x 1 : t − 1 ) = 1 C P ( x t ∣ z t ( i ) ) P ( z t ( i ) ∣ z t − 1 ) P ( z 1 : t − 1 ( i ) , x 1 : t − 1 ) = 1 C P ( x t ∣ z t ( i ) ) P ( z t ( i ) ∣ z t − 1 ) P ( z 1 : t − 1 ( i ) ∣ x 1 : t − 1 ) P ( x 1 : t − 1 ) ⏟ D = D C P ( x t ∣ z t ( i ) ) P ( z t ( i ) ∣ z t − 1 ) P ( z 1 : t − 1 ( i ) ∣ x 1 : t − 1 )              ( 14 ) \begin{aligned} P\left(z_{1: t}^{(i)} | x_{1: t}\right) &=\frac{P\left(z_{1: t}^{(i)}, x_{1: t}\right)}{P\left(x_{1: t}\right)} \\ &=\frac{1}{C} P\left(z_{1: t}^{(i)}, x_{1: t}\right) \\ &=\frac{1}{C} \underbrace{P\left(x_{t} | z_{1: t}^{(i)}, x_{1: t-1}\right)}_{P\left(x_{t} | z_{t}^{(t)}\right)} P\left(z_{1: t}^{(i)}, x_{1: t-1}\right) \\ &=\frac{1}{C} P\left(x_{t} | z_{t}^{(i)}\right) \underbrace{P\left(z_{t}^{(i)} | z_{1: t-1}^{(i)}, x_{1: t-1}\right)}_{P\left(z_{t}^{(t)} | z_{t-1}\right)} P\left(z_{1: t-1}^{(i)}, x_{1: t-1}\right) \\ &=\frac{1}{C} P\left(x_{t} | z_{t}^{(i)}\right) P\left(z_{t}^{(i)} | z_{t-1}\right) P\left(z_{1: t-1}^{(i)}, x_{1: t-1}\right) \\ &=\frac{1}{C} P\left(x_{t} | z_{t}^{(i)}\right) P\left(z_{t}^{(i)} | z_{t-1}\right) P\left(z_{1: t-1}^{(i)} | x_{1: t-1}\right) \underbrace{P\left(x_{1: t-1}\right)}_{D} \\ &=\frac{D}{C} P\left(x_{t} | z_{t}^{(i)}\right) P\left(z_{t}^{(i)} | z_{t-1}\right) P\left(z_{1: t-1}^{(i)} | x_{1: t-1}\right) \end{aligned} \ \ \ \ \ \ \ \ \ \ \ \ (14) P(z1:t(i)x1:t)=P(x1:t)P(z1:t(i),x1:t)=C1P(z1:t(i),x1:t)=C1P(xtzt(t)) P(xtz1:t(i),x1:t1)P(z1:t(i),x1:t1)=C1P(xtzt(i))P(zt(t)zt1) P(zt(i)z1:t1(i),x1:t1)P(z1:t1(i),x1:t1)=C1P(xtzt(i))P(zt(i)zt1)P(z1:t1(i),x1:t1)=C1P(xtzt(i))P(zt(i)zt1)P(z1:t1(i)x1:t1)D P(x1:t1)=CDP(xtzt(i))P(zt(i)zt1)P(z1:t1(i)x1:t1)            14

3.2 分母 Q ( z 1 : t ( i ) ∣ x 1 : t ) Q\left(z_{1: t}^{(i)} | x_{1: t}\right) Q(z1:t(i)x1:t) 解析

分母中,我们假设:
Q ( z 1 : t ( i ) ∣ x 1 : t ) = Q ( z t ( i ) ∣ z 1 : t − 1 ( i ) , x 1 : t ) Q ( z 1 : t − 1 ( i ) ∣ x 1 : t − 1 )              ( 15 ) Q\left(z_{1: t}^{(i)} | x_{1: t}\right)=Q\left(z_{t}^{(i)} | z_{1: t-1}^{(i)}, x_{1: t}\right) Q\left(z_{1: t-1}^{(i)} | x_{1: t-1}\right) \ \ \ \ \ \ \ \ \ \ \ \ (15) Q(z1:t(i)x1:t)=Q(zt(i)z1:t1(i),x1:t)Q(z1:t1(i)x1:t1)            15
有的同学会很好奇 Q ( z 1 : t − 1 ( i ) ∣ x 1 : t − 1 ) Q\left(z_{1: t-1}^{(i)} | x_{1: t-1}\right) Q(z1:t1(i)x1:t1) 为什么不是 Q ( z 1 : t − 1 ( i ) ∣ x 1 : t ) Q\left(z_{1: t-1}^{(i)} | x_{1: t}\right) Q(z1:t1(i)x1:t) 。这个很好解释,这是一个假设。 Q ( ⋅ ) Q(\cdot) Q()
来就是一个 Proposal Distribution,我们想设成什么样都没有关系。
所以,我们将分子和分母的解析结果汇总可以得到:
w t ( i ) ∝ P ( z 1 : t ( i ) ∣ x 1 : t ) Q ( z 1 : t ( i ) ∣ x 1 : t ) ∝ P ( x t ∣ z t ( i ) ) P ( z t ( i ) ∣ z t − 1 ) P ( z 1 : t − 1 ( i ) ∣ x 1 : t − 1 ) Q ( z t ( i ) ∣ z 1 : t − 1 ( i ) , x 1 : t ) Q ( z 1 : t − 1 ( i ) ∣ x 1 : t − 1 ) = P ( x t ∣ z t ( i ) ) P ( z t ( i ) ∣ z t − 1 ) Q ( z t ( i ) ∣ z 1 : t − 1 ( i ) , x 1 : t ) ⋅ w t − 1 ( i )              ( 16 ) \begin{array}{l} w_{t}^{(i)} \propto \frac{P\left(z_{1: t}^{(i)} | x_{1: t}\right)}{Q\left(z_{1: t}^{(i)} | x_{1: t}\right)} \propto \frac{P\left(x_{t} | z_{t}^{(i)}\right) P\left(z_{t}^{(i)} | z_{t-1}\right) P\left(z_{1: t-1}^{(i)} | x_{1: t-1}\right)}{Q\left(z_{t}^{(i)} | z_{1: t-1}^{(i)}, x_{1: t}\right) Q\left(z_{1: t-1}^{(i)} | x_{1: t-1}\right)} \\ \\ =\frac{P\left(x_{t} | z_{t}^{(i)}\right) P\left(z_{t}^{(i)} | z_{t-1}\right)}{Q\left(z_{t}^{(i)} | z_{1: t-1}^{(i)}, x_{1: t}\right)} \cdot w_{t-1}^{(i)} \end{array} \ \ \ \ \ \ \ \ \ \ \ \ (16) wt(i)Q(z1:t(i)x1:t)P(z1:t(i)x1:t)Q(zt(i)z1:t1(i),x1:t)Q(z1:t1(i)x1:t1)P(xtzt(i))P(zt(i)zt1)P(z1:t1(i)x1:t1)=Q(zt(i)z1:t1(i),x1:t)P(xtzt(i))P(zt(i)zt1)wt1(i)            16
P ( x t ∣ z t ( i ) ) P\left(x_{t} | z_{t}^{(i)}\right) P(xtzt(i)) 是已知的发射矩阵, P ( z t ( i ) ∣ z t − 1 ) P\left(z_{t}^{(i)} | z_{t-1}\right) P(zt(i)zt1) 也是已知的状态转移矩阵 , Q ( z t ( i ) ∣ z 1 : t − 1 ( i ) , x 1 : t ) , Q\left(z_{t}^{(i)} | z_{1: t-1}^{(i)}, x_{1: t}\right) ,Q(zt(i)z1:t1(i),x1:t) 是 Proposal Distribution 很简单,很好进行求解。那么对于在 t 时刻的 N 个值 w t ( i ) , w_{t}^{(i)}, wt(i), 我们不在需要一个个 的进行计算了,使用迭代公式就可以很快的求得解。

3.3 算法小结

我们反复强调过,求解后验概率分布 P ( Z ∣ X ) P(Z | X) P(ZX) 大多数时候都是为了求解期望 E Z ∣ X [ f ( Z ) ] , \mathbb{E}_{Z | X}[f(Z)], EZX[f(Z)], 而实际 上期望的问题就是一个积分问题。为什么求期望这么的重要呢,我们仔细想想。求方差的过程本质上 就是一个求期望的过程: V a r [ X ] = E [ X 2 ] − [ E [ X ] ] 2 Var[X] = \mathbb{E}\left[X^{2}\right]-[\mathbb{E}[X]]^{2} Var[X]=E[X2][E[X]]2 。而求边缘概率也可以转换成一个求期望的问题, 本质上还是一个积分的问题。 前面在公式 (16) 中得到了,
w t ( i ) ∝ P ( z 1 i t ( i ) ∣ x 1 : t ) Q ( z 1 : t ( i ) ∣ x 1 : t ) ∝ P ( x t ∣ z t ( i ) ) P ( z t ( i ) ∣ z t − 1 ) Q ( z t ( i ) ∣ z 1 : t − 1 ( i ) , x 1 : t ) ⋅ w t − 1 ( i )              ( 17 ) w_{t}^{(i)} \propto \frac{P\left(z_{1 i t}^{(i)} | x_{1: t}\right)}{Q\left(z_{1: t}^{(i)} | x_{1: t}\right)} \propto \frac{P\left(x_{t} | z_{t}^{(i)}\right) P\left(z_{t}^{(i)} | z_{t-1}\right)}{Q\left(z_{t}^{(i)} | z_{1: t-1}^{(i)}, x_{1: t}\right)} \cdot w_{t-1}^{(i)} \ \ \ \ \ \ \ \ \ \ \ \ (17) wt(i)Q(z1:t(i)x1:t)P(z1it(i)x1:t)Q(zt(i)z1:t1(i),x1:t)P(xtzt(i))P(zt(i)zt1)wt1(i)            17
我们之前提过了关于 Proposal Distribution Q ( ⋅ ) Q(\cdot) Q() 是可以随意设置了, 为了求解的方便。我们将 Q ( z t ( i ) ∣ z 1 : t − 1 ( i ) , x 1 : t ) Q\left(z_{t}^{(i)} | z_{1: t-1}^{(i)}, x_{1: t}\right) Q(zt(i)z1:t1(i),x1:t) 改写成 Q ( z t ( i ) ∣ z t − 1 ( i ) , x 1 : t ) Q\left(z_{t}^{(i)} | z_{t-1}^{(i)}, x_{1: t}\right) Q(zt(i)zt1(i),x1:t) 。这个转换非常的自然。

下面,我们将硫理一下这个算法: Sequential Importance Sampling Algorithm:
前提 t − 1 t-1 t1 时刻的采样都已经完成
t t t 时刻对于 N N N 个采样值, for i = 1 , 2 , ⋯   , N : i=1,2, \cdots, N: i=1,2,,N:
z t ( i ) ∼ Q ( z t ∣ z t − 1 , x 1 : t )              ( 18 ) w t ( i ) ∝ P ( x t ∣ z t ( i ) ) P ( z t ( i ) ∣ z t − 1 ) Q ( z t ( i ) ∣ z 1 : t − 1 ( i ) , x 1 : t ) ⋅ w t − 1 ( i )              ( 19 ) \begin{array}{c} z_{t}^{(i)} \sim Q\left(z_{t} | z_{t-1}, x_{1: t}\right) \ \ \ \ \ \ \ \ \ \ \ \ (18) \\ \\ w_{t}^{(i)} \propto \frac{P\left(x_{t} | z_{t}^{(i)}\right) P\left(z_{t}^{(i)} | z_{t-1}\right)}{Q\left(z_{t}^{(i)} | z_{1: t-1}^{(i)}, x_{1: t}\right)} \cdot w_{t-1}^{(i)} \ \ \ \ \ \ \ \ \ \ \ \ (19) \end{array} zt(i)Q(ztzt1,x1:t)            (18)wt(i)Q(zt(i)z1:t1(i),x1:t)P(xtzt(i))P(zt(i)zt1)wt1(i)            (19)
end
w t ( i )  归一化,  ,  令  ∑ i = 1 N w t ( i ) = 1 w_{t}^{(i)} \text { 归一化, }, \text { 令 } \sum_{i=1}^{N} w_{t}^{(i)}=1 wt(i) 归一化,  i=1Nwt(i)=1
实际上就这么简单,归一化是为了方便计算和避免程序计算时出现精度问题,而且可以对值的范 围进行约束。所以,公式 (9) 中,我们可以将最后的结果进行改写,可得:
1 N ∑ i = 1 N f ( z ( i ) ) w ( i ) = ∑ i = 1 N f ( z ( i ) ) w ^ ( i )              ( 20 ) \frac{1}{N} \sum_{i=1}^{N} f\left(z^{(i)}\right) w^{(i)}=\sum_{i=1}^{N} f\left(z^{(i)}\right) \hat{w}^{(i)} \ \ \ \ \ \ \ \ \ \ \ \ (20) N1i=1Nf(z(i))w(i)=i=1Nf(z(i))w^(i)            (20)
这里讲的也很模糊,我用直观性的方法来理解。由于有了归一化的过程, w ^ ( i ) \hat{w}^{(i)} w^(i)就相当于一个概率密度函数,那么 ∑ i = 1 N f ( z ( i ) ) w ^ ( i ) \sum_{i=1}^{N} f\left(z^{(i)}\right) \hat{w}^{(i)} i=1Nf(z(i))w^(i) 求得的不就是期望。这样一样的可以得到异曲同工的作用。

3.4 Sequential Importance Sampling 中的问题

Sequential Importance Sampling 最大的问题就是权值退化。也就是 w t i w_t^i wti会变得越来越小。举个例子,假如有100 个权值,有99 个都趋向于0,中有1 个趋向于1。这样当然会出问题。
而为什么会出现这个问题呢?由于高维空间的原因,我们需要更多的样本来反映空间的特征。样本不够就会忽略一些高维特征,导致某些维度特征接近0 的情况出现。
那么,解决方法有三种:

  1. 采更多的样本;
  2. Resampling 的方法;
  3. 选择一个更好的Proposal Distribution Q(z)。

4 Sampling Importance Resampling (SIR)

那么Resampling 的方法如何来解决权值退化的方法?那就是舍弃权重。之前我们用Weight 来代表一个粒子的重要程度,而Resampling 就是通过用粒子数量来代替Weight 的方法来表示重要程度。

4.1 SIR 采样方法

经过重要性采样后,我们得到了N 个样本点,以及对应的权重。那么我用权重来作为采样的概率,重新测采样出N 个样本。也就是如下图所示:

通过二次采样可以降低采样不平衡的问题。至于为什么呢?大家想一想,我在这里表达一下自己的看法。 p ( z i ) q ( z i ) \frac {p(zi)}{q(zi)} q(zi)p(zi) 是Weight,如果Weight 比较大的话,说明 p ( z i ) p(z_i) p(zi) 比较大而 q ( z i ) q(z_i) q(zi) 比较的小,也就是们通过 q ( z i ) q(z_i) q(zi) 采出来的数量比较少。那么我们按权重再来采一次,就可以增加采到重要性样本的概率,成功的弥补了重要性采样带来的缺陷,有效的弥补采样不均衡的问题。
那么,权值大的样本我们就采样的比较多,权值小的样本就采样的比较少。这样就去掉了权值,换了一种方法等价的来表示重要程度。就可以解决权值退化的问题。

4.2 How to do it?

具体实现的思路其实就很简单。那就是根据概率密度函数(pdf) 来计算得到概率分布函数(cdf)。然后通过从[0,1] 之间进行均匀采样,来得到相应的的值。这个,我们在Markov Chain Monte Carlo 01 Sampling Method 的概率分布采样中已经做了详细的描述。
讲到这里,Sampling Importance Resampling (SIR) 实际上就是一种Basis Particle Filter,也就
是SIS+Resampling,这是一种基本可以work 的算法。

4.3 找一个更好的Q(Z)

选择 Q ( z t ∣ z 1 : t − 1 , x 1 : t ) = P ( z t ∣ z t − 1 ( i ) ) , Q\left(z_{t} | z_{1: t-1}, x_{1: t}\right)=P\left(z_{t} | z_{t-1}^{(i)}\right), Q(ztz1:t1,x1:t)=P(ztzt1(i)), 用状态转移矩阵来进行定义,那么我们就可以将权值改写成:
w t ( i ) ∝ P ( x t ∣ z t ( i ) ) P ( z t ( i ) ∣ z t − 1 ) P ( z t ∣ z t − 1 ( i ) ) ⋅ w t − 1 ( i ) = P ( x t ∣ z t ( i ) ) ⋅ w t − 1 ( i ) w_{t}^{(i)} \propto \frac{P\left(x_{t} | z_{t}^{(i)}\right) P\left(z_{t}^{(i)} | z_{t-1}\right)}{P\left(z_{t} | z_{t-1}^{(i)}\right)} \cdot w_{t-1}^{(i)}=P\left(x_{t} | z_{t}^{(i)}\right) \cdot w_{t-1}^{(i)} wt(i)P(ztzt1(i))P(xtzt(i))P(zt(i)zt1)wt1(i)=P(xtzt(i))wt1(i)
所以, w t ( i ) = P ( x t ∣ z t ( i ) ) ⋅ w t − 1 ( i ) , w_{t}^{(i)}=P\left(x_{t} | z_{t}^{(i)}\right) \cdot w_{t-1}^{(i)}, wt(i)=P(xtzt(i))wt1(i), z ( i ) ∼ P ( z t ∣ z t − 1 ( i ) ) z^{(i)} \sim P\left(z_{t} | z_{t-1}^{(i)}\right) z(i)P(ztzt1(i)) 。改写后的算法为 SIR Filter,也就是下列三个部 分组成的:
 Sequential Importance Sampling  +  Resampling  + Q ( z t ∣ z 1 : t − 1 , x 1 : t ) = P ( z t ∣ z t − 1 ( i ) ) \text { Sequential Importance Sampling }+\text { Resampling }+Q\left(z_{t} | z_{1: t-1}, x_{1: t}\right)=P\left(z_{t} | z_{t-1}^{(i)}\right)  Sequential Importance Sampling + Resampling +Q(ztz1:t1,x1:t)=P(ztzt1(i))
那么我们为什么要令 Q ( z t ∣ z 1 : t − 1 , x 1 : t ) = P ( z t ∣ z t − 1 ( i ) ) Q\left(z_{t} | z_{1: t-1}, x_{1: t}\right)=P\left(z_{t} | z_{t-1}^{(i)}\right) Q(ztz1:t1,x1:t)=P(ztzt1(i)) 呢? 因为在 t t t 时刻采样的时候,不是要去找一个新 的分布,而是就从之前就用的一个中进行寻找。我们可以用一个很简单的例子来说明:就像很多人寻
找自己的另一半, 找了很久都没有合适的,直到最后才发现另一半就在自己身边的朋友中,也就是“免 子就吃窗边草”吧。我们用之前就算好的会方便很多。 我们用,generate and test,来描述这个过程非常的形象。Generate 是 z t ⟶ P ( z t ∣ Z t − 1 ( i ) ) , z_{t} \longrightarrow P\left(z_{t} | Z_{t-1}^{(i)}\right), ztP(ztZt1(i)), 也就是 状态转移矩阵。而 Test 是 w t − 1 , w_{t-1}, wt1, 也就是 P ( x t ∣ z t ( i ) ) P\left(x_{t} | z_{t}^{(i)}\right) P(xtzt(i)) 这个实际上就是发射矩阵, 这个实际上是一举两得 的作用。 P ( x t ∣ z t ( i ) ) P\left(x_{t} | z_{t}^{(i)}\right) P(xtzt(i)) 越大一方面表示了发射矩阵的板率大; 另一方面是表示了采样的权重很大,采出来 的样本越重要,采样的效率越高。所以,Q ( z t ∣ z 1 : t − 1 , x 1 : t ) = P ( z t ∣ z t − 1 ( i ) ) \left(z_{t} | z_{1: t-1}, x_{1: t}\right)=P\left(z_{t} | z_{t-1}^{(i)}\right) (ztz1:t1,x1:t)=P(ztzt1(i)) 呢?因为在 t t t 建到了一语双关 的重用,实现了共同目标的优化。

5 Sampling Importance Resampling (SIR) 总结

Sampling Importance Resampling Algorithm:
前提: t − 1 t-1 t1 时刻的采样都已经完成;

  1. Sampling:
    t t t 时刻对于 N N N 个采样值, for i = 1 , 2 , ⋯   , N : i=1,2, \cdots, N: i=1,2,,N:
    z t ( i ) ∼ P ( z t ∣ z t − 1 ( i ) ) w t ( i ) ∝ P ( x t ∣ z t ( i ) ) P ( z t ( i ) ∣ z t − 1 ) P ( z t ∣ z t − 1 ( i ) ) ⋅ w t − 1 ( i ) = P ( x t ∣ z t ( i ) ) ⋅ w t − 1 ( i ) \begin{array}{c} z_{t}^{(i)} \sim P\left(z_{t} | z_{t-1}^{(i)}\right) \\ w_{t}^{(i)} \propto \frac{P\left(x_{t} | z_{t}^{(i)}\right) P\left(z_{t}^{(i)} | z_{t-1}\right)}{P\left(z_{t} | z_{t-1}^{(i)}\right)} \cdot w_{t-1}^{(i)}=P\left(x_{t} | z_{t}^{(i)}\right) \cdot w_{t-1}^{(i)} \end{array} zt(i)P(ztzt1(i))wt(i)P(ztzt1(i))P(xtzt(i))P(zt(i)zt1)wt1(i)=P(xtzt(i))wt1(i)
    end
  2. Normalized:
    w t ( i ) ⟶ w ^ t ( i ) , ∑ i = 1 N w ^ t ( i ) = 1 w_{t}^{(i)} \longrightarrow \hat{w}_{t}^{(i)}, \quad \sum_{i=1}^{N} \hat{w}_{t}^{(i)}=1 wt(i)w^t(i),i=1Nw^t(i)=1
  3. Resampling:
    w ^ ^ t ( i ) = 1 N \hat{\hat{w}}_{t}^{(i)}=\frac{1}{N} w^^t(i)=N1

你可能感兴趣的:(机器学习白板推导)