HMM算法详解(内含推导)

文章目录

      • HMM结构
      • HMM参数
      • 解决inference问题
        • 暴力求解
        • 维特比算法求解
      • 估计模型的参数
        • 向前向后算法
        • EM算法
        • 估计参数 π \pi π
        • 估计参数 B B B
        • 估算参数A

时序模型大致上分为(ML)版本和(DL)版本

ML:HMM和GRF

DL:RNN/LSTM

今天就讲解一下隐马尔科夫模型HMM算法

HMM结构

HMM算法详解(内含推导)_第1张图片
由上图可知观测值(x)和隐含状态(z)在这里举个例子说明 x x x z z z的关系
例子:假设现在有两枚硬币{A,B}分别有正反两面,这时有两个人:“小明”和”小华”现在将两个人隔开,“小明负责扔硬币”,“小华负责观察硬币的正反面”。但是小华是看不到小明是扔的A还是B,这里的可以观测到的正反面相当于HMM算法中的 x x x,扔的A或者B相当于状态 z z z,这也就是说由状态生成观测值,那么问题来了:

1、假设t时刻小华看到了小明扔的是正面,那么能不能确定这枚硬币是A还是B呢?(inference问题)

2、 t t t时刻小明扔了A硬币,那么 t + 1 t+1 t+1时刻小明会扔A还是B? t t t A硬币出现正反的概率是多少(参数估计问题)

3、能不能计算 p 正 , 反 , 正 , 正 , 饭 p{正,反,正,正,饭} p

假设我们计算词性标注的问题:

这里的词性就相当于单词的隐含状态 z z z,单词就相当于可观测值 x x x

那么问题1就是:句子中每个单词对应的词性是什么(动词,名词,代词)?

问题2:词性之间的转移关系是什么,每个词性输出的词之间有什么关系?

问题3:给定一组单词,判断它出现的概率

语音识别问题:

可观测值 x x x是一段长的波形,隐含状态 z z z是对应文字

问题1:每段波形对应的文字是什么?

问题2:文字与文字之间的转移关系是什么,文字与的波形之间的关系

问题3:给定一段语音波形,判断它出现的概率

这就是HMM最典型的三个问题,也就是说我们在做nlp任务时,像:词性标注,命名实体识别等等这些任务时,我们的可观测值一般是我们的输入,像句子,文章,音波等,我们的状态一般就是我们的目标:词性,实体,音波对应的文字

HMM参数

那么HMM的就是计算 z 1 z_1 z1 z 2 z_2 z2之间的关系, z z z x x x之间的关系,这两个关系也就是HMM的参数我们设置为 A A A B B B

那么 A A A是一个矩阵,如下图,每一行都对应一个状态 z z z其中的值表示下一状态出现的概率,例如下图这一行表示 z i z_i zi,第一个值表示下一个状态出现 z 1 z_1 z1的概率为 0.02 0.02 0.02,第二个值表示下一个状态出现 z 2 z_2 z2的概率为 0.03 。 0.03。 0.03因此我们称 A A A为:状态转移矩阵
HMM算法详解(内含推导)_第2张图片
B B B也是一个矩阵,也就是表示 z z z状态下生成 x x x的概率,如下图:
HMM算法详解(内含推导)_第3张图片
如上图,每一行都对应一个状态 z z z其中的值表示出现 x x x的概率,例如下图这一行表示 z i z_i zi,第一个值表示在状态 z i z_i zi下出现 x 1 x_1 x1的概率为 0.12 0.12 0.12,第二个值表示出现 x 2 x_2 x2的概率为$0.05.

在HMM中我们还设置了一个参数 π \pi π,是一个向量用来表示状态 z i z_i zi成为第一个状态的概率: π = { 0.02 , 0.05 , 0.06 , . . . , 0.08 } \pi=\{0.02,0.05,0.06,...,0.08\} π={0.02,0.05,0.06,...,0.08}: z 1 z_1 z1成为第一个状态的概率为(0.02),: z 2 z_2 z2成为第一个状态的概率为(0.05)以此类推。

所以在HMM中有三个参数 A , B , π A,B,\pi A,B,π

解决inference问题

给定模型找到最优的状态 z z z,给定模型也就是我们的参数 A , B , π A,B,\pi A,B,π已经训练好了,我们直接利用可观测值 x x x来进行反推状态 z z z现在有两种方法:

暴力求解

暴力求解:将所有可能性一一列出来,找到那个最优的解

计算过程:

x 1 , x 2 , x 3 , x 4 . . . x m x_1,x_2,x_3,x_4...x_m x1x2x3x4...xm对应的状态 z z z

一共n种状态

1、列出可能发生的所有状态序列:

HMM算法详解(内含推导)_第4张图片
一共n种状态,计算m个观测值x对应的 z z z,则一共有 n m n^m nm个序列

2、对每个序列利用A计算状态转移的概率

例如: p ( z 1 ) ⋅ p ( z 1 ∣ z 2 ) ⋅ p ( z 3 ∣ z 2 ) ⋅ p ( z 4 ∣ z 3 ) ⋅ . . . . p(z_1)\cdot p(z_1|z_2)\cdot p(z_3|z_2)\cdot p(z_4|z_3)\cdot.... p(z1)p(z1z2)p(z3z2)p(z4z3)....

3、再利用B计算每个状态生成对应 x x x的概率

例如: p ( x 1 ∣ z 1 ) ⋅ p ( x 2 ∣ z 2 ) ⋅ p ( x 3 ∣ z 3 ) ⋅ p ( x 4 ∣ z 4 ) ⋅ . . . . p(x_1|z_1)\cdot p(x_2|z_2)\cdot p(x_3|z_3)\cdot p(x_4|z_4)\cdot.... p(x1z1)p(x2z2)p(x3z3)p(x4z4)....

4、找到结果最大的那个序列

优点:
一定可以找到全局最优解

缺点:
很明显,计算量太大

维特比算法求解

对于1对1的转移关系的计算,维特比的计算方法还是比较好用的,维特比算法是典型的动态规划思想,如图
HMM算法详解(内含推导)_第5张图片
如上图在计算 x k + 1 x_{k+1} xk+1对应的 z z z时,要分计算: p ( z j + 1 ∣ z 2 ) ⋅ p ( x k + 1 ∣ z j + 1 ) p( z_{j+1}|z_2)\cdot p( x_{k+1}|z_{j+1}) p(zj+1z2)p(xk+1zj+1)

但是我们要求的是最优解

在这里我们假设 ϕ k ( i ) \phi_k(i) ϕk(i)表示 x k x_{k} xk时选择 z i z_i zi的最优的路径。例如 ϕ k ( 1 ) \phi_k(1) ϕk(1)指的是在 x k x_{k} xk时选择 z 1 z_1 z1最优的最优路径。那么 ϕ k + 1 ( i ) \phi_{k+1}(i) ϕk+1(i)的计算方式是就是在 x k + 1 x_{k+1} xk+1时选择时 z i z_i zi最好的路径:

ϕ k + 1 ( i ) = m a x   { ϕ k ( 1 ) ⋅ p ( z i ∣ z 1 ) ⋅ p ( x k + 1 ∣ z i ) ϕ k ( 2 ) ⋅ p ( z i ∣ z 2 ) ⋅ p ( x k + 1 ∣ z i ) ϕ k ( 3 ) ⋅ p ( z i ∣ z 3 ) ⋅ p ( x k + 1 ∣ z i ) ϕ k ( 4 ) ⋅ p ( z i ∣ z 4 ) ⋅ p ( x k + 1 ∣ z i ) ϕ k ( 5 ) ⋅ p ( z i ∣ z i ) ⋅ p ( x k + 1 ∣ z 5 ) . . . . \phi_{k+1}(i)=max\ \begin{cases}\phi_{k}(1)\cdot p( z_i|z_{1})\cdot p( x_{k+1}|z_{i})\\ \phi_{k}(2)\cdot p( z_i|z_{2})\cdot p( x_{k+1}|z_{i})\\ \phi_{k}(3)\cdot p( z_i|z_{3})\cdot p( x_{k+1}|z_{i})\\\phi_{k}(4)\cdot p( z_i|z_{4})\cdot p( x_{k+1}|z_{i})\\\phi_{k}(5)\cdot p( z_i|z_{i})\cdot p( x_{k+1}|z_{5})\\....\end{cases} ϕk+1(i)=max ϕk(1)p(ziz1)p(xk+1zi)ϕk(2)p(ziz2)p(xk+1zi)ϕk(3)p(ziz3)p(xk+1zi)ϕk(4)p(ziz4)p(xk+1zi)ϕk(5)p(zizi)p(xk+1z5)....

也就是 ϕ k + 1 ( i ) = m a x j ϕ k ( j ) ⋅ p ( z i ∣ z j ) ⋅ p ( x k + 1 ∣ z i ) \phi_{k+1}(i)=max_j\quad\phi_{k}(j)\cdot p( z_i|z_{j})\cdot p( x_{k+1}|z_{i}) ϕk+1(i)=maxjϕk(j)p(zizj)p(xk+1zi)

m a x j max_j maxj表示 j j j的取值为1到n

我们在 x k + 1 x_{k+1} xk+1时计算所有的路径:也就是计算: ϕ k + 1 ( 1 ) \phi_{k+1}(1) ϕk+1(1) ϕ k + 1 ( 2 ) \phi_{k+1}(2) ϕk+1(2) ϕ k + 1 ( 3 ) \phi_{k+1}(3) ϕk+1(3) ϕ k + 1 ( n ) \phi_{k+1}(n) ϕk+1(n)

这样我们就把一个大的问题分成了一个一个的子问题,对于每个观测值 x x x计算其对应的 ϕ ( 1 ) \phi(1) ϕ(1) ϕ ( 2 ) \phi(2) ϕ(2) ϕ ( 3 ) \phi(3) ϕ(3) ϕ ( n ) \phi(n) ϕ(n),直到最后一层 x n x_n xn.然后我们选择最好的. ϕ n \phi_{n} ϕn利用 ϕ n \phi_{n} ϕn找到生成它的 ϕ n − 1 \phi_{n-1} ϕn1以此类推找到最优路径。

这里有一个问题:第一步怎么计算,这里我们使用了参数 π \pi π,它对应了每个 z z z作为第一个状态的概率。

对于一对一的状态转换关系使用维特比算法计算出的一定是全局最优解,这里不懂的同学可以去了解一下动态规划和维特比算法

估计模型的参数

向前向后算法

第二个问题,给定一系列观测值计算参数也就是: A , B 和 π A,B和\pi ABπ
对于这一类的问题首先得了解两个算法,叫向前向后算法,我们在这里简称为FB算法,首先先看一下这两个算法长什么样子的吧

向前算法: p = ( z k , x 1 : k ) p=(z_k,x_{1:k}) p=(zk,x1:k)

向后算法: p = ( x k + 1 : n ∣ z k ) p=(x_{k+1:n}|z_k) p=(xk+1:nzk)

为什么要使用到这两个算法呢?是因为我们在估计模型的参数时会用到计算 p = ( z k ∣ x ) p=(z_k|x) p=(zkx),这个概率表示的对于可观测数据 x x x来说,给定任一时刻k都可以计算出此时的 z k z_k zk是哪一个状态的概率,因此在计算 p = ( z k ∣ x ) p=(z_k|x) p=(zkx)这个概率时会用到向前向后算法,简单看一下数学推导:
p ( z k ∣ x ) = p ( z k , x ) p ( x ) ∝ p ( z k , x ) p(z_k|x)=\dfrac{p(z_k,x)}{p(x)}\propto p(z_k,x) p(zkx)=p(x)p(zk,x)p(zk,x)

p ( z k , x ) = p ( x k + 1 : n , x 1 : k , z k ) = p ( x k + 1 : n ∣ z k , x 1 : k ) ⋅ p ( z k , x 1 : k ) p(z_k,x)=p(x_{k+1:n},x_{1:k},z_{k})=p(x_{k+1:n}|z_k,x_{1:k})\cdot p(z_k,x_{1:k}) p(zk,x)=p(xk+1:n,x1:k,zk)=p(xk+1:nzk,x1:k)p(zk,x1:k)

由于 p ( z k + 1 : n ) p(z_{k+1:n}) p(zk+1:n)条件独立于 p ( z 1 : k ) p(z_{1:k}) p(z1:k)(可以根据D-separation来证明)所以 p ( x k + 1 : n ∣ z k , x 1 : k ) = p ( x k + 1 : n ∣ z k ) p(x_{k+1:n}|z_k,x_{1:k})=p(x_{k+1:n}|z_k) p(xk+1:nzk,x1:k)=p(xk+1:nzk)因此:

p ( z k , x ) = p ( z k + 1 : n ∣ z k ) ⋅ p ( z k , x 1 : k ) p(z_k,x)=p(z_{k+1:n}|z_k)\cdot p(z_k,x_{1:k}) p(zk,x)=p(zk+1:nzk)p(zk,x1:k)

由于 p ( z k ∣ x ) p(z_k|x) p(zkx)只是正比于 p ( z k , x ) p(z_k,x) p(zk,x)并不是相等的关系,所以为了最后计算结果符合一个概率的规则,所以进行一个计算百分比的操作

p ( z k = 1 ∣ x ) = p ( z k = 1 , x ) ∑ j p ( z k = j , x ) p(z_{k=1}|x)=\dfrac{p(z_{k=1},x)}{\sum_jp(z_{k=j},x)} p(zk=1x)=jp(zk=j,x)p(zk=1,x)

所以可以用FB算法计算 p ( z k ∣ x ) p(z_k|x) p(zkx)

我们来计算一下向前向后算法:

向前算法(动态规划的思想):
p ( z k , x 1 : k ) = ∑ z k − 1 p ( z k − 1 , z k , x 1 : k ) = ∑ z k − 1 p ( z k − 1 , z k , x 1 : k − 1 , x k ) p(z_k,x_{1:k})=\sum_{zk-1}p(z_{k-1},z_k,x_{1:k})=\sum_{zk-1}p(z_{k-1},z_k,x_{1:k-1},x_k) p(zk,x1:k)=zk1p(zk1,zk,x1:k)=zk1p(zk1,zk,x1:k1,xk)

= ∑ z k − 1 p ( z k − 1 , x 1 : k − 1 ) ⋅ p ( z k ∣ z k − 1 , x 1 : k ) ⋅ p ( x k ∣ z k , z k − 1 , x 1 : k ) =\sum_{zk-1}p(z_{k-1},x_{1:k-1})\cdot p(z_k|z_{k-1},x_{1:k})\cdot p(x_k|z_k,z_{k-1},x_{1:k}) =zk1p(zk1,x1:k1)p(zkzk1,x1:k)p(xkzk,zk1,x1:k)

由D-separation的思想我们可以知道 z k − 1 z_{k-1} zk1 x 1 : k x_{1:k} x1:k条件独立于 x k x_k xk所以 p ( x k ∣ z k , z k − 1 , x 1 : k ) = p ( x k ∣ z k ) p(x_k|z_k,z_{k-1},x_{1:k})=p(x_k|z_k) p(xkzk,zk1,x1:k)=p(xkzk), x 1 : k x_{1:k} x1:k条件独立于 p ( z k ) p(z_k) p(zk)因此 p ( z k ∣ z k − 1 , x 1 : k ) = p ( z k ∣ z k − 1 ) p(z_k|z_{k-1},x_{1:k})=p(z_k|z_{k-1}) p(zkzk1,x1:k)=p(zkzk1)

所以公式为:
p ( z k , x 1 : k ) = ∑ z k − 1 p ( z k − 1 , x 1 : k − 1 ) ⋅ p ( z k ∣ z k − 1 ) ⋅ p ( x k ∣ z k ) p(z_k,x_{1:k})=\sum_{zk-1}p(z_{k-1},x_{1:k-1})\cdot p(z_{k}|z_{k-1})\cdot p(x_k|z_k) p(zk,x1:k)=zk1p(zk1,x1:k1)p(zkzk1)p(xkzk)

在这里我们可以看的出来 p ( z k ∣ z k − 1 ) p(z_k|z_{k-1}) p(zkzk1)可以从参数A中计算出来, p ( x k ∣ z k ) p(x_k|z_k) p(xkzk)可以由参数B计算出来,而 ∑ z k − 1 p ( z k − 1 , x 1 : k − 1 ) \sum_{zk-1}p(z_{k-1},x_{1:k-1}) zk1p(zk1,x1:k1)是可以用递归的方法计算出来。

在第一步的时候不是使用 p ( z k ∣ z k − 1 ) p(z_k|z_{k-1}) p(zkzk1)而是使用 p ( z 1 ) p(z_1) p(z1)这个是由 π \pi π计算出来的

计算完向前算法下面计算向后算法 p ( x k + 1 : n ∣ z k ) p(x_{k+1:n}|z_k) p(xk+1:nzk)

p ( x k + 1 : n ∣ z k ) = ∑ z k + 1 p ( x k + 1 : n , z k + 1 ∣ z k ) = ∑ z k + 1 p ( x k + 2 : n ∣ z k + 1 , x k + 1 , z k ) ⋅ p ( x k + 1 ∣ z k + 1 , z k ) ⋅ p ( z k + 1 ∣ z k ) p(x_{k+1:n}|z_k)=\sum_{zk+1}p(x_{k+1:n},z_{k+1}|z_k)=\sum_{zk+1}p(x_{k+2:n}|z_k+1,x_{k+1},z_k)\cdot p(x_{k+1}|z_{k+1},z_k)\cdot p(z_{k+1}|z_k) p(xk+1:nzk)=zk+1p(xk+1:n,zk+1zk)=zk+1p(xk+2:nzk+1,xk+1,zk)p(xk+1zk+1,zk)p(zk+1zk)

= ∑ z k + 1 p ( x k + 1 : n ∣ z k + 1 ) ⋅ p ( x k + 1 ∣ z k + 1 ) ⋅ p ( z k + 1 ∣ z k ) =\sum_{zk+1}p(x_{k+1:n}|z_{k+1})\cdot p(x_{k+1}|z_{k+1})\cdot p(z_{k+1}|z_k) =zk+1p(xk+1:nzk+1)p(xk+1zk+1)p(zk+1zk)

同理 p ( x k + 1 ∣ z k + 1 ) p(x_{k+1}|z_{k+1}) p(xk+1zk+1)可以由B参数获得, p ( z k + 1 ∣ z k ) p(z_{k+1}|z_k) p(zk+1zk)是由参数A获得、然后动态规划的方法进行计算。

EM算法

在估算参数之前,首先得了解什么是EM算法,EM算法的详细推导我已经写了一篇博客,大家想要明白原理可以先去学习一下,总之EM算法就是来解决这种带有隐含状态的参数的计算,主要分为两步:

1、E步:根据可观测值 x x x以及由上一步计算出的参数计算出状态 z z z的期望(FB算法)

2、M步:根据计算出的状态 z z z,更新参数

因此HMM算法就是应用了EM算法的思想

估计参数 π \pi π

前面我们提到了参数 π \pi π指的是 z z z属于第一个状态的概率

上面我们说过FB算法能够在给定一组观测值下计算任意时刻对应状态 z z z的概率,也就是说我们可以利用FB算法只计算第一时刻每个状态生成的情况然后统计出 π \pi π

假设这里有状态有三种{1,2,3}

这里有三组数据{ x 1 , x 2 , x 3 x_1,x_2,x_3 x1,x2,x3}

我们利用FB算法来计算每组数据的每种状态在第一时刻发生的概率:

第一组数据的每个状态在第一时刻的发生的概率:

p ( z 1 = 1 ∣ x 1 ) = 0.6 p ( z 2 = 1 ∣ x 1 ) = 0.2 p ( z 2 = 1 ∣ x 1 ) = 0.2 p(z_1=1|x_1)=0.6\quad p(z_2=1|x_1)=0.2\quad p(z_2=1|x_1)=0.2 p(z1=1x1)=0.6p(z2=1x1)=0.2p(z2=1x1)=0.2

第二组数据的每个状态在第一时刻的发生的概率:

p ( z 1 = 1 ∣ x 2 ) = 0.4 p ( z 2 = 1 ∣ x 2 ) = 0.3 p ( z 2 = 1 ∣ x 2 ) = 0.3 p(z_1=1|x_2)=0.4\quad p(z_2=1|x_2)=0.3\quad p(z_2=1|x_2)=0.3 p(z1=1x2)=0.4p(z2=1x2)=0.3p(z2=1x2)=0.3

第三组数据的每个状态在第一时刻的发生的概率:

p ( z 1 = 1 ∣ x 3 ) = 0.5 p ( z 2 = 1 ∣ x 3 ) = 0.3 p ( z 2 = 1 ∣ x 3 ) = 0.2 p(z_1=1|x_3)=0.5\quad p(z_2=1|x_3)=0.3\quad p(z_2=1|x_3)=0.2 p(z1=1x3)=0.5p(z2=1x3)=0.3p(z2=1x3)=0.2

z 1 z_1 z1作为第一状态下发生的所有概率相加 0.6 + 0.4 + 0.5 = 1.5 0.6+0.4+0.5=1.5 0.6+0.4+0.5=1.5

z 2 z_2 z2作为第一状态下发生的所有概率相加 0.2 + 0.3 + 0.3 = 0.8 0.2+0.3+0.3=0.8 0.2+0.3+0.3=0.8

z 3 z_3 z3作为第一状态下发生的所有概率相加 0.2 + 0.3 + 0.2 = 0.7 0.2+0.3+0.2=0.7 0.2+0.3+0.2=0.7

将每个数写成概率的形式也就是

z 1 = 1.5 3 = 0.5 , z_1=\dfrac{1.5}{3}=0.5, z1=31.5=0.5, z 1 = 0.8 3 = 0.17 , z_1=\dfrac{0.8}{3}=0.17, z1=30.8=0.17, z 1 = 0.7 3 = 0.23 z_1=\dfrac{0.7}{3}=0.23 z1=30.7=0.23

最后 π = ( 0.5 , 0.17 , 0.23 ) \pi=(0.5,0.17,0.23) π=(0.5,0.17,0.23)

估计参数 B B B

估计参数B与估计 π \pi π一样我们还是使用的是EM算法,先计算出状态 z z z的期望,再利用 z z z更新参数B

由上面的讲解我们知道参数B的值是状态生成观测值的概率矩阵,也就是说必须要计算出状态生成每一个观测值的概率。

假设这里有状态有三种{1,2,3}

这里有三组数据{ x 1 , x 2 , x 3 x_1,x_2,x_3 x1,x2,x3}

计算步骤:

1、对于观测值(x)我们先利用FB算法计算出每时每刻状态z发生的概率计算结果如下图:
HMM算法详解(内含推导)_第6张图片
2、利用状态概率和的对应时刻的观测值统计状态生成观测值的概率:

状态 z 1 z_1 z1生成观测值 a a a的概率统计: 0.6 + 0.5 + 0.3 + 0.2 + 0.5 + 0.6 = 2.7 0.6+0.5+0.3+0.2+0.5+0.6=2.7 0.6+0.5+0.3+0.2+0.5+0.6=2.7

状态 z 1 z_1 z1生成观测值 b b b的概率统计: 0.3 + 0.6 + 0.3 + 0.5 + 0.4 = 2.1 0.3+0.6+0.3+0.5+0.4=2.1 0.3+0.6+0.3+0.5+0.4=2.1

状态 z 1 z_1 z1生成观测值 c c c的概率统计: 0.3 + 0.4 + 0.3 + 0.2 = 1.2 0.3+0.4+0.3+0.2=1.2 0.3+0.4+0.3+0.2=1.2

写成概率的形式
2.7 6 \dfrac{2.7}{6} 62.7, 2.1 6 \dfrac{2.1}{6} 62.1, 1.2 6 \dfrac{1.2}{6} 61.2 = ( 0.45 , 0.35 , 0.2 ) =(0.45,0.35,0.2) =(0.45,0.35,0.2)

状态 z 2 z_2 z2生成观测值 a a a的概率统计: 0.2 + 0.4 + 0.2 + 0.7 + 0.1 + 0.3 = 1.9 0.2+0.4+0.2+0.7+0.1+0.3=1.9 0.2+0.4+0.2+0.7+0.1+0.3=1.9

状态 z 2 z_2 z2生成观测值 b b b的概率统计: 0.5 + 0.2 + 0.5 + 0.3 + 0.3 = 1.8 0.5+0.2+0.5+0.3+0.3=1.8 0.5+0.2+0.5+0.3+0.3=1.8

状态 z 2 z_2 z2生成观测值 c c c的概率统计: 0.3 + 0.3 + 0.4 + 0.3 = 1.2 0.3+0.3+0.4+0.3=1.2 0.3+0.3+0.4+0.3=1.2

1.9 4.9 \dfrac{1.9}{4.9} 4.91.9, 1.8 4.9 \dfrac{1.8}{4.9} 4.91.8, 1.2 4.9 \dfrac{1.2}{4.9} 4.91.2 = ( 0.39 , 0.37 , 0.24 ) =(0.39,0.37,0.24) =(0.39,0.37,0.24)

状态 z 3 z_3 z3生成观测值 a a a的概率统计: 0.2 + 0.1 + 0.5 + 0.1 + 0.4 + 0.1 = 1.4 0.2+0.1+0.5+0.1+0.4+0.1=1.4 0.2+0.1+0.5+0.1+0.4+0.1=1.4

状态 z 3 z_3 z3生成观测值 b b b的概率统计: 0.2 + 0.2 + 0.2 + 0.3 + 0.2 = 1.1 0.2+0.2+0.2+0.3+0.2=1.1 0.2+0.2+0.2+0.3+0.2=1.1

状态 z 3 z_3 z3生成观测值 c c c的概率统计: 0.4 + 0.3 + 0.3 + 0.5 = 1.5 0.4+0.3+0.3+0.5=1.5 0.4+0.3+0.3+0.5=1.5

1.4 4 \dfrac{1.4}{4} 41.4, 1.1 4 \dfrac{1.1}{4} 41.1, 1.5 4 \dfrac{1.5}{4} 41.5 = ( 0.35 , 0.28 , 0.38 ) =(0.35,0.28,0.38) =(0.35,0.28,0.38)

这样我们的B为:
HMM算法详解(内含推导)_第7张图片

估算参数A

估算参数A,我们在这里用到了B-Gram的思想,也就是说在B-gram中计算: p ( w i ∣ w j ) = c ( w i , w j ) c ( w j ) p(w_i|w_j)=\dfrac{c(w_i,w_j)}{c(w_j)} p(wiwj)=c(wj)c(wi,wj)也就是在计算 w i w_i wi作为 w j w_j wj的下一个单词的概率时用 w i 和 w j w_i和w_j wiwj出现的次数除以 w j w_j wj出现的总次数。在估算参数A时与B-gram类似,我们主要计算的是 p ( z k + 1 = j ∣ z k = i ) p(z_{k+1}=j|z_k=i) p(zk+1=jzk=i)所以计算公式为:

p ( z k + 1 = j ∣ z k = i ) = p ( z k + 1 = j , z k = i ) p ( z k = i ) p(z_{k+1}=j|z_k=i)=\dfrac{p(z_{k+1}=j,z_k=i)}{p(z_k=i)} p(zk+1=jzk=i)=p(zk=i)p(zk+1=j,zk=i)

我们来分析一下这个公式:分母是指的所有时刻 z k = i z_k=i zk=i的概率,这个概率我们可以通过FB算法计算出来的,因为FB算法对于可观测值 x x x可以计算出每时每刻状态 z z z发生的概率,有FB算法计算后再进行简单的统计就可以计算出 p ( z k = i ) p(z_k=i) p(zk=i)

下面看分子:分子求的是 z k + 1 = j 和 z k = i z_{k+1}=j和z_{k}=i zk+1=jzk=i的联合概率,这个我们没有现成的公式,因此我们只能对每个观测值求其对应的 p ( z k + 1 = j , z k = i ∣ x ) p(z_{k+1}=j,z_k=i|x) p(zk+1=j,zk=ix)所以只能对这个公式进行简单的化简:

p ( z k + 1 = j , z k = i ∣ x ) ∝ p ( z k + 1 = j , z k = i , x ) = p ( z k + 1 = j , z k = i , x 1 : k , x k + 1 , x k + 2 : n ) p(z_{k+1}=j,z_k=i|x)\propto p(z_{k+1}=j,z_k=i,x)=p(z_{k+1}=j,z_k=i,x_{1:k},x_{k+1},x_{k+2:n}) p(zk+1=j,zk=ix)p(zk+1=j,zk=i,x)=p(zk+1=j,zk=i,x1:k,xk+1,xk+2:n)

x x x分为三个部分目的是为了更好的计算:

= p ( z k , x 1 : k ) ⋅ p ( x k + 2 : n ∣ z k + 1 ) ⋅ p ( z k + 1 ∣ z k ) ⋅ p ( x k + 1 ∣ z k + 1 ) =p(z_{k},x_{1:k})\cdot p(x_{k+2:n}|z_{k+1})\cdot p(z_{k+1}|z_k)\cdot p(x_{k+1}|z_{k+1}) =p(zk,x1:k)p(xk+2:nzk+1)p(zk+1zk)p(xk+1zk+1)

在这里我们可以清楚的看到 p ( z k , x 1 : k ) p(z_k,x_{1:k}) p(zk,x1:k)是向前算法, p ( x k + 2 : n ∣ z k + 1 ) p(x_{k+2:n}|z_{k+1}) p(xk+2:nzk+1)指的是向后算法, p ( z k + 1 ∣ z k ) p(z_{k+1}|z_k) p(zk+1zk)指的是可以从参数A获得, p ( x k + 1 ∣ z k + 1 ) p(x_{k+1}|z_{k+1}) p(xk+1zk+1)可以从参数B获得。这样我们就可以计算出 p ( z k = i , z k + 1 = j ∣ x ) p(z_k=i,z_{k+1}=j|x) p(zk=i,zk+1=jx)

最后我们在做一个normalization的操作让其表示为一个概率的形式。

例如 A 23 = p ( z 1 = 2 , z 2 = 3 ∣ x ) + p ( z 2 = 2 , z 3 = 3 ∣ x ) + p ( z 3 = 2 , z 4 = 3 ∣ x ) . . . A_{23}=p(z_1=2,z_2=3|x)+p(z_2=2,z_3=3|x)+p(z_3=2,z_4=3|x)... A23=p(z1=2,z2=3x)+p(z2=2,z3=3x)+p(z3=2,z4=3x)...

举个例子:

假设这里有状态有三种{1,2,3}

这里有三组数据{ x 1 , x 2 , x 3 x_1,x_2,x_3 x1,x2,x3}

这里计算参数A的第一行,也就是计算状态 z = 1 z=1 z=1时对应下一个状态(1,2,3)的概率,这里的每一条连接线就是由 p ( z k + 1 = i , z k = i ∣ x ) p(z_{k+1}=i,z_k=i|x) p(zk+1=i,zk=ix)计算出来的。比如第一个0.6,对应下一条线就是0.1,0.2,.0.3(边缘概率=条件概率之和)
HMM算法详解(内含推导)_第8张图片
先计算 A 11 = 0.1 + 0.1 + 0.1 + 0.2 + 0.1 + 0.1 + 0.2 + 0.2 + 0.1 0.6 + 0.3 + 0.5 + 0.4 + 0.3 + 0.5 + 0.5 + 0.6 + 0.5 = 1.2 4.2 = 0.29 A_{11}=\dfrac{0.1+0.1+0.1+0.2+0.1+0.1+0.2+0.2+0.1}{0.6+0.3+0.5+0.4+0.3+0.5+0.5+0.6+0.5}=\dfrac{1.2}{4.2}=0.29 A11=0.6+0.3+0.5+0.4+0.3+0.5+0.5+0.6+0.50.1+0.1+0.1+0.2+0.1+0.1+0.2+0.2+0.1=4.21.2=0.29

A 12 = 0.2 + 0.1 + 0.2 + 0.1 + 0.1 + 0.3 + 0.1 + 0.3 + 0.2 0.6 + 0.3 + 0.5 + 0.4 + 0.3 + 0.5 + 0.5 + 0.6 + 0.5 = 1.6 4.2 = 0.38 A_{12}=\dfrac{0.2+0.1+0.2+0.1+0.1+0.3+0.1+0.3+0.2}{0.6+0.3+0.5+0.4+0.3+0.5+0.5+0.6+0.5}=\dfrac{1.6}{4.2}=0.38 A12=0.6+0.3+0.5+0.4+0.3+0.5+0.5+0.6+0.50.2+0.1+0.2+0.1+0.1+0.3+0.1+0.3+0.2=4.21.6=0.38

A 13 = 0.3 + 0.1 + 0.2 + 0.1 + 0.1 + 0.1 + 0.2 + 0.1 + 0.2 0.6 + 0.3 + 0.5 + 0.4 + 0.3 + 0.5 + 0.5 + 0.6 + 0.5 = 1.4 4.2 = 0.33 A_{13}=\dfrac{0.3+0.1+0.2+0.1+0.1+0.1+0.2+0.1+0.2}{0.6+0.3+0.5+0.4+0.3+0.5+0.5+0.6+0.5}=\dfrac{1.4}{4.2}=0.33 A13=0.6+0.3+0.5+0.4+0.3+0.5+0.5+0.6+0.50.3+0.1+0.2+0.1+0.1+0.1+0.2+0.1+0.2=4.21.4=0.33

这样就计算出了参数A的第一行( A 11 , A 12 , A 13 A_{11},A_{12},A_{13} A11,A12,A13)以此类推

你可能感兴趣的:(HMM算法详解(内含推导))