隐马尔可夫模型(HMM)原理

文章目录

  • 概率图模型与隐马尔可夫模型
  • 隐马尔可夫模型原理
    • 隐马尔可夫模型定义
    • 两个基本假设和三个基本问题
    • 概率计算问题:P(O|λ)的计算方法
      • 直接计算方法(概念上可行,计算上不可行)
      • 前向算法
      • 后向算法
      • 一些概率值与期望的计算
    • 学习问题:监督学习方法和非监督学习方法(Baum-Welch算法)
      • 监督学习方法
      • 非监督学习方法——Baum-Welch算法
    • 预测问题(解码问题):近似算法和维特比(Viterbi)算法
      • 近似算法
      • 维特比(Viterbi)算法

概率图模型与隐马尔可夫模型

概率图模型是一类用图来表示变量相关关系的模型。可以分为两类:一类是用有向无环图表示变量间的依赖关系,称为有向图模型;另一类是使用无向图表示变量间的相关关系,称为无向图模型。
隐马尔可夫模型(HMM)是一种有向图模型,它是关于时序的概率模型,描述由一个隐藏的马尔可夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测而产生观测随机序列的过程。隐藏的马尔可夫链随机生成不可观测的状态的序列称为状态序列;每个状态生成一个观测,再由此产生的观测的随机序列,称为观测序列。序列的每一个位置可以看作是一个时刻。

隐马尔可夫模型原理

隐马尔可夫模型定义

隐马尔可夫模型由初始概率分布、状态转移概率分布、观测概率分布确定。设Q是所有可能的状态的集合,V是所有可能的观测的集合,即:
Q = ( q 1 , q 2 , ⋯   , q N ) , V = ( v 1 , v 2 , ⋯   , v M ) Q=(q_{1}, q_{2}, \cdots, q_{N}), \quad V=(v_{1}, v_{2}, \cdots, v_{M}) Q=(q1,q2,,qN),V=(v1,v2,,vM)
其中,N是可能的状态数,M是可能的观测数。
I是长度为T的状态序列,O是对应的观测序列,即:
I = ( i 1 , i 2 , ⋯   , i T ) , O = ( o 1 , o 2 , ⋯   , o T ) I=\left(i_{1}, i_{2}, \cdots, i_{T}\right), \quad O=\left(o_{1}, o_{2}, \cdots, o_{T}\right) I=(i1,i2,,iT),O=(o1,o2,,oT)
A为状态转移概率矩阵(NXN矩阵):
A = [ a i j ] A=\left[a_{i j}\right] A=[aij]
其中:
a i j = P ( i t + 1 = q j ∣ i t = q i ) , i = 1 , 2 , ⋯   , N ; j = 1 , 2 , ⋯   , N a_{i j}=P\left(i_{t+1}=q_{j} | i_{t}=q_{i}\right), \quad i=1,2, \cdots, N ; j=1,2, \cdots, N aij=P(it+1=qjit=qi),i=1,2,,N;j=1,2,,N
即在时刻t处于状态qi的条件下在时刻t+1转移到状态qj的概率。
B为观测概率矩阵(NXM矩阵):
B = [ b j ( k ) ] B=\left[b_{j}(k)\right] B=[bj(k)]
其中:
b j ( k ) = P ( o t = v k ∣ i t = q j ) , k = 1 , 2 , ⋯   , M ; j = 1 , 2 , ⋯   , N b_{j}(k)=P\left(o_{t}=v_{k} | i_{t}=q_{j}\right), \quad k=1,2, \cdots, M ; j=1,2, \cdots, N bj(k)=P(ot=vkit=qj),k=1,2,,M;j=1,2,,N
是在时刻t处于状态qj的条件下生成观测vk的概率。
记π为初始状态概率向量:
π = ( π i ) \pi=\left(\pi_{i}\right) π=(πi)
其中:
π i = P ( i 1 = q i ) , i = 1 , 2 , ⋯   , N \pi_{i}=P\left(i_{1}=q_{i}\right), \quad i=1,2, \cdots, N πi=P(i1=qi),i=1,2,,N
表示时刻t=1处于状态qi的概率。
因此,HMM模型λ可以用三元符号表示,即:
λ = ( A , B , π ) \lambda=(A, B, \pi) λ=(A,B,π)
A,B,π称为HMM模型的三要素。
举例:
假设有4个盒子,每个盒子都有红白两种颜色的球,球的数量如下:

盒子        1        2        3        4
红球数      5        3        6        8
白球数      5        7        4        2

按下面的方法抽取球:
开始时,从4个盒子中等概率地抽取一个,再从盒子中随机抽一个球,记录颜色后放回。然后从当前盒子转移到下一个盒子,如果当前为盒子1,下一个盒子一定是2;如果当前为盒子2或3,以概率0.4和0.6转移到左边或右边的盒子;如果当前为盒子4,各以0.5概率停留在盒子4或转移到盒子3。转移后,再从盒子中随机抽一个球,记录颜色后放回。
现在假设我们要连续地抽5次。抽取结果如下:
O = ( 红 , 红 , 白 , 白 , 红 ) O=(红,红,白,白,红) O=(,,,,)
这个例子中有两个随机序列:
盒子序列(状态序列)和球颜色序列(观测序列)。前者是隐藏的,后者是可观测的。
则状态集合Q和观测集合V为:
Q = ( 盒 子 1 , 盒 子 2 , 盒 子 3 , 盒 子 4 ) , V = ( 红 , 白 ) Q=(盒子1,盒子2,盒子3,盒子4), \quad V=(红,白) Q=(1,2,3,4),V=(,)
状态序列和观测序列长度T=5。
开始时,从4个盒子中等概率地抽取一个,则初始概率分布π为:
π = ( 0.25 , 0.25 , 0.25 , 0.25 ) T \pi=(0.25,0.25,0.25,0.25)^{\mathrm{T}} π=(0.25,0.25,0.25,0.25)T
状态转移概率分布A为(由盒子转移规则得出):
A = [ 0 1 0 0 0.4 0 0.6 0 0 0.4 0 0.6 0 0 0.5 0.5 ] A=\left[\begin{array}{cccc}{0} & {1} & {0} & {0} \\\\ {0.4} & {0} & {0.6} & {0} \\\\ {0} & {0.4} & {0} & {0.6} \\\\ {0} & {0} & {0.5} & {0.5}\end{array}\right] A=00.400100.4000.600.5000.60.5
观测概率分布B为(由每个盒子红白球比例计算得出):
B = [ 0.5 0.5 0.3 0.7 0.6 0.4 0.8 0.2 ] B=\left[\begin{array}{ll}{0.5} & {0.5} \\\\ {0.3} & {0.7} \\\\ {0.6} & {0.4} \\\\ {0.8} & {0.2}\end{array}\right] B=0.50.30.60.80.50.70.40.2

两个基本假设和三个基本问题

隐马尔可夫模型做了两个基本假设:

  • 齐次马尔可夫性假设,即假设隐藏的马尔可夫链在任意时刻t的状态只依赖于其前一时刻的状态,与其他时刻的状态及观测无关,也与时刻t无关,即:
    P ( i t ∣ i t − 1 , o t − 1 , ⋯   , i 1 , o 1 ) = P ( i t ∣ i t − 1 ) , t = 1 , 2 , ⋯   , T P\left(i_{t} | i_{t-1}, o_{t-1}, \cdots, i_{1}, o_{1}\right)=P\left(i_{t} | i_{t-1}\right), \quad t=1,2, \cdots, T P(itit1,ot1,,i1,o1)=P(itit1),t=1,2,,T
  • 观测独立性假设,即假设任意时刻的观测只依赖于该时刻的马尔可夫链的状态,与其他的观测和状态无关,即:
    P ( o t ∣ i T , o T , i T − 1 , o T − 1 , ⋯   , i t + 1 , o t + 1 , i t − 1 , i t − 1 , ⋯   , i 1 , o 1 ) = P ( o t ∣ i t ) P\left(o_{t} | i_{T}, o_{T}, i_{T-1}, o_{T-1}, \cdots, i_{t+1}, o_{t+1}, i_{t-1}, i_{t-1}, \cdots, i_{1}, o_{1}\right)=P\left(o_{t} | i_{t}\right) P(otiT,oT,iT1,oT1,,it+1,ot+1,it1,it1,,i1,o1)=P(otit)

隐马尔可夫模型有3个基本问题:

  1. 概率计算问题。给定模型λ和观测序列O,计算在模型λ下观测序列O出现的慨率P(O|λ)。
  2. 学习问题。已知观测序列O,估计模型λ的参数,使得在该模型下观测序列概率P(O|λ)最大。即用极大似然估计的方法估计参数。
  3. 预测问题,也称为解码问题。已知模型λ和观测序列O,求对给定观测序列条件概率P(I|O)最大的状态序列。即给定观测序列,求最有可能的对应的状态序列。

概率计算问题:P(O|λ)的计算方法

给定模型λ和观测序列O,计算在模型λ下,观测序列O出现的概率P(O|λ)。

直接计算方法(概念上可行,计算上不可行)

列举所有可能的长度为T的状态序列I
I = ( i 1 , i 2 , ⋯   , i T ) I=\left(i_{1}, i_{2}, \cdots, i_{T}\right) I=(i1,i2,,iT)
求各个状态序列I和给定的观测序列O的联合概率P(O,I∣λ),然后对所有可能的状态序列求和,得到P(O|λ)。
对某个状态序列I的概率为:
P ( I ∣ λ ) = π i 1 a i 1 i 2 a i 2 i 3 ⋯ a i T − 1 i T P(I | \lambda)=\pi_{i_{1}} a_{i_{1} i_{2}} a_{i_{2} i_{3}} \cdots a_{i_{T-1} i_{T}} P(Iλ)=πi1ai1i2ai2i3aiT1iT
对上面的状态序列I,输入的观测序列O的概率P(O|I,λ):
P ( O ∣ I , λ ) = b i 1 ( o 1 ) b i 2 ( o 2 ) ⋯ b i T ( o T ) P(O | I, \lambda)=b_{i_{1}}\left(o_{1}\right) b_{i_{2}}\left(o_{2}\right) \cdots b_{i_{T}}\left(o_{T}\right) P(OI,λ)=bi1(o1)bi2(o2)biT(oT)
O和I同时出现的l联合概率为:
P ( O , I ∣ λ ) = P ( O ∣ I , λ ) P ( I ∣ λ ) = π i 1 b i 1 ( o 1 ) a i 1 i 2 b i 2 ( o 2 ) ⋯ a i i − 1 i τ b i τ ( o T ) P(O, I | \lambda)=P(O | I, \lambda) P(I | \lambda)=\pi_{i_{1}} b_{i_{1}}\left(o_{1}\right) a_{i_{1} i_{2}} b_{i_{2}}\left(o_{2}\right) \cdots a_{i_{i-1} i_{\tau}} b_{i_{\tau}}\left(o_{T}\right) P(O,Iλ)=P(OI,λ)P(Iλ)=πi1bi1(o1)ai1i2bi2(o2)aii1iτbiτ(oT)
然后,对所有可能的状态序列I求和,得到观测序列O的概率P(O|λ):
P ( O ∣ λ ) = ∑ I P ( O ∣ I , λ ) P ( I ∣ λ ) = ∑ i 1 , i 2 , ⋯   , i T π i 1 b i 1 ( o 1 ) a i 1 i 2 b i 2 ( o 2 ) ⋯ a i i − 1 i τ b i τ ( o T ) P(O | \lambda)=\sum_{I} P(O | I, \lambda) P(I | \lambda)= \sum_{i_{1}, i_{2}, \cdots, i_{T}} \pi_{i_{1}} b_{i_{1}}\left(o_{1}\right) a_{i_{1} i_{2}} b_{i_{2}}\left(o_{2}\right) \cdots a_{i_{i-1} i_{\tau}} b_{i_{\tau}}\left(o_{T}\right) P(Oλ)=IP(OI,λ)P(Iλ)=i1,i2,,iTπi1bi1(o1)ai1i2bi2(o2)aii1iτbiτ(oT)
通过这种计算方式的计算量非常大,其复杂度为:
O ( T N T ) O\left(T N^{T}\right) O(TNT)
实际是不可行的。在真实情况下,一般采用更有效的算法,即前向-后向算法。

前向算法

给定隐马尔可夫模型λ和观测序列O,定义到时刻t部分观测序列为:
o 1 , o 2 , ⋯   , o t o_{1}, o_{2}, \cdots, o_{t} o1,o2,,ot
且状态为qi的概率为前向概率,记作:
α t ( i ) = P ( o 1 , o 2 , ⋯   , o t , i t = q i ∣ λ ) \alpha_{t}(i)=P\left(o_{1}, o_{2}, \cdots, o_{t}, i_{t}=q_{i} | \lambda\right) αt(i)=P(o1,o2,,ot,it=qiλ)
下面要计算观测序列概率P(O∣λ)。
计算初值:
α 1 ( i ) = π i b i ( o 1 ) , i = 1 , 2 , ⋯   , N \alpha_{1}(i)=\pi_{i} b_{i}\left(o_{1}\right), \qquad i=1,2, \cdots, N α1(i)=πibi(o1),i=1,2,,N
递推,对t=1,2,⋯,T−1,有
α t + 1 ( i ) = [ ∑ j = 1 N α t ( j ) a j i ] b i ( o t + 1 ) , i = 1 , 2 , ⋯   , N \alpha_{t+1}(i)=\left[\sum_{j=1}^{N} \alpha_{t}(j) a_{j i}\right] b_{i}\left(o_{t+1}\right), \quad i=1,2, \cdots, N αt+1(i)=[j=1Nαt(j)aji]bi(ot+1),i=1,2,,N
终止:
P ( O ∣ λ ) = ∑ i = 1 N α T ( i ) P(O | \lambda)=\sum_{i=1}^{N} \alpha_{T}(i) P(Oλ)=i=1NαT(i)
该算法时间复杂度为:
O ( N 2 T ) O\left(N^{2} T\right) O(N2T)
比直接计算法小很多。
计算实例:
现在有盒子和球模型λ=(A,B,π),状态集合Q=(1,2,3),观测集合V=(红,白)。
状态转移概率分布A、观测概率分布B、初始概率分布π为:
A = [ 0.5 0.2 0.3 0.3 0.5 0.2 0.2 0.3 0.5 ] A=\left[\begin{array}{lll}{0.5} & {0.2} & {0.3} \\\\ {0.3} & {0.5} & {0.2} \\\\ {0.2} & {0.3} & {0.5}\end{array}\right] A=0.50.30.20.20.50.30.30.20.5
B = [ 0.5 0.5 0.4 0.6 0.7 0.3 ] B=\left[\begin{array}{ll}{0.5} & {0.5} \\\\ {0.4} & {0.6} \\\\ {0.7} & {0.3}\end{array}\right] B=0.50.40.70.50.60.3
π = ( 0.2 , 0.4 , 0.4 ) T \pi=(0.2,0.4,0.4)^{\mathrm{T}} π=(0.2,0.4,0.4)T
设T=3, O=(红,白,红),试用前向算法计算P(O|λ)。
计算初值:
α 1 ( 1 ) = π 1 b 1 ( o 1 ) = 0.10 α 1 ( 2 ) = π 2 b 2 ( o 1 ) = 0.16 α 1 ( 3 ) = π 3 b 3 ( o 1 ) = 0.28 \alpha_{1}(1)=\pi_{1} b_{1}\left(o_{1}\right)=0.10 \\\\ \alpha_{1}(2)=\pi_{2} b_{2}\left(o_{1}\right)=0.16 \\\\ \alpha_{1}(3)=\pi_{3} b_{3}\left(o_{1}\right)=0.28 α1(1)=π1b1(o1)=0.10α1(2)=π2b2(o1)=0.16α1(3)=π3b3(o1)=0.28
递推计算:
α 2 ( 1 ) = [ ∑ i = 1 3 α 1 ( i ) a i 1 ] b 1 ( o 2 ) = 0.154 × 0.5 = 0.077 α 2 ( 2 ) = [ ∑ i = 1 3 α 1 ( i ) a i 2 ] b 2 ( o 2 ) = 0.184 × 0.6 = 0.1104 α 2 ( 3 ) = [ ∑ i = 1 3 α 1 ( i ) a 13 ] b 3 ( o 2 ) = 0.202 × 0.3 = 0.0606 \alpha_{2}(1)=\left[\sum_{i=1}^{3} \alpha_{1}(i) a_{i 1}\right] b_{1}\left(o_{2}\right)=0.154 \times 0.5=0.077 \\\\ \alpha_{2}(2)=\left[\sum_{i=1}^{3} \alpha_{1}(i) a_{i 2}\right] b_{2}\left(o_{2}\right)=0.184 \times 0.6=0.1104 \\\\ \alpha_{2}(3)=\left[\sum_{i=1}^{3} \alpha_{1}(i) a_{13}\right] b_{3}\left(o_{2}\right)=0.202 \times 0.3=0.0606 α2(1)=[i=13α1(i)ai1]b1(o2)=0.154×0.5=0.077α2(2)=[i=13α1(i)ai2]b2(o2)=0.184×0.6=0.1104α2(3)=[i=13α1(i)a13]b3(o2)=0.202×0.3=0.0606
α 3 ( 1 ) = [ ∑ i = 1 3 α 2 ( i ) a i 1 ] b 1 ( o 3 ) = 0.04187 α 3 ( 2 ) = [ ∑ i = 1 3 α 2 ( i ) a i 2 ] b 2 ( o 3 ) = 0.03551 α 3 ( 3 ) = [ ∑ i = 1 3 α 2 ( i ) a i 3 ] b 3 ( o 3 ) = 0.05284 \alpha_{3}(1)=\left[\sum_{i=1}^{3} \alpha_{2}(i) a_{i 1}\right] b_{1}\left(o_{3}\right)=0.04187 \\\\ \alpha_{3}(2)=\left[\sum_{i=1}^{3} \alpha_{2}(i) a_{i 2}\right] b_{2}\left(o_{3}\right)=0.03551 \\\\ \alpha_{3}(3)=\left[\sum_{i=1}^{3} \alpha_{2}(i) a_{i 3}\right] b_{3}\left(o_{3}\right)=0.05284 α3(1)=[i=13α2(i)ai1]b1(o3)=0.04187α3(2)=[i=13α2(i)ai2]b2(o3)=0.03551α3(3)=[i=13α2(i)ai3]b3(o3)=0.05284
终止:
P ( O ∣ λ ) = ∑ i = 1 3 α 3 ( i ) = 0.13022 P(O | \lambda)=\sum_{i=1}^{3} \alpha_{3}(i)=0.13022 P(Oλ)=i=13α3(i)=0.13022

后向算法

给定隐马尔可夫模型λ和观测序列O,定义在时刻t状态为qi的条件下,从t+1到T的部分观测序列为:
o t + 1 , o t + 2 , ⋯   , o T o_{t+1}, o_{t+2}, \cdots, o_{T} ot+1,ot+2,,oT
的概率为后向概率,记作:
β t ( i ) = P ( o t + 1 , o t + 2 , ⋯   , o T ∣ i t = q i , λ ) \beta_{t}(i)=P\left(o_{t+1}, o_{t+2}, \cdots, o_{T} | i_{t}=q_{i}, \lambda\right) βt(i)=P(ot+1,ot+2,,oTit=qi,λ)
下面要计算观测序列概率P(O∣λ)。
初值:
β T ( i ) = 1 , i = 1 , 2 , ⋯   , N \beta_{T}(i)=1, \quad i=1,2, \cdots, N βT(i)=1,i=1,2,,N
递推,对t=1, 2,…,T-1,有:
β t ( i ) = ∑ j = 1 N a i j b j ( o t + 1 ) β t + 1 ( j ) , i = 1 , 2 , ⋯   , N \beta_{t}(i)=\sum_{j=1}^{N} a_{i j} b_{j}\left(o_{t+1}\right) \beta_{t+1}(j), \quad i=1,2, \cdots, N βt(i)=j=1Naijbj(ot+1)βt+1(j),i=1,2,,N
终止:
P ( O ∣ λ ) = ∑ i = 1 N π i b i ( o 1 ) β 1 ( i ) P(O | \lambda)=\sum_{i=1}^{N} \pi_{i} b_{i}\left(o_{1}\right) \beta_{1}(i) P(Oλ)=i=1Nπibi(o1)β1(i)
利用前向概率和后向概率的定义可以将观测序列概率P(O∣λ)统一写成:
P ( O ∣ λ ) = ∑ i = 1 N ∑ j = 1 N α t ( i ) a i j b j ( o t + 1 ) β t + 1 ( j ) , t = 1 , 2 , ⋯   , T − 1 P(O | \lambda)=\sum_{i=1}^{N} \sum_{j=1}^{N} \alpha_{t}(i) a_{i j} b_{j}\left(o_{t+1}\right) \beta_{t+1}(j), \quad t=1,2, \cdots, T-1 P(Oλ)=i=1Nj=1Nαt(i)aijbj(ot+1)βt+1(j),t=1,2,,T1
此式当t=1和t=T-1时分别为前向算法和后向算法的终止公式。

一些概率值与期望的计算

利用前向概率和后向慨率,可以得到关于单个状态和两个状态概率的计算公式。

  1. 给定模型λ和观测O,在时刻t处于状态qi的概率,记为
    γ t ( i ) = P ( i t = q i ∣ O , λ ) \gamma_{t}(i)=P\left(i_{t}=q_{i} | O, \lambda\right) γt(i)=P(it=qiO,λ)
    可以通过前向后向概率计算。即:
    γ t ( i ) = P ( i t = q i ∣ O , λ ) = P ( i t = q i , O ∣ λ ) P ( O ∣ λ ) \gamma_{t}(i)=P\left(i_{t}=q_{i} | O, \lambda\right)=\frac{P\left(i_{t}=q_{i}, O | \lambda\right)}{P(O | \lambda)} γt(i)=P(it=qiO,λ)=P(Oλ)P(it=qi,Oλ)
    由前向概率αt(i)和后向概率βt(i)定义可知:
    α t ( i ) β t ( i ) = P ( i t = q i , O ∣ λ ) \alpha_{t}(i) \beta_{t}(i)=P\left(i_{t}=q_{i}, O | \lambda\right) αt(i)βt(i)=P(it=qi,Oλ)
    故有:
    γ t ( i ) = α t ( i ) β t ( i ) P ( O ∣ λ ) = α t ( i ) β t ( i ) ∑ j = 1 N α t ( j ) β t ( j ) \gamma_{t}(i)=\frac{\alpha_{t}(i) \beta_{t}(i)}{P(O | \lambda)}=\frac{\alpha_{t}(i) \beta_{t}(i)}{\sum_{j=1}^{N} \alpha_{t}(j) \beta_{t}(j)} γt(i)=P(Oλ)αt(i)βt(i)=j=1Nαt(j)βt(j)αt(i)βt(i)
  2. 给定模型A和观测序列O,在时刻t处于状态qi且在时刻t+1处于状态qj的概率,记为
    ξ t ( i , j ) = P ( i t = q i , i t + 1 = q j ∣ O , λ ) \xi_{t}(i, j)=P\left(i_{t}=q_{i}, i_{t+1}=q_{j} | O, \lambda\right) ξt(i,j)=P(it=qi,it+1=qjO,λ)
    可以通过前向后向概率计算:
    ξ i ( i , j ) = P ( i t = q i , i t + 1 = q j , O ∣ λ ) P ( O ∣ λ ) = P ( i t = q i , i t + 1 = q j , O ∣ λ ) ∑ i = 1 N ∑ j = 1 N P ( i t = q i , i t + 1 = q j , O ∣ λ ) \xi_{i}(i, j)=\frac{P\left(i_{t}=q_{i}, i_{t+1}=q_{j}, O | \lambda\right)}{P(O | \lambda)}=\frac{P\left(i_{t}=q_{i}, i_{t+1}=q_{j}, O | \lambda\right)}{\sum_{i=1}^{N} \sum_{j=1}^{N} P\left(i_{t}=q_{i}, i_{t+1}=q_{j}, O | \lambda\right)} ξi(i,j)=P(Oλ)P(it=qi,it+1=qj,Oλ)=i=1Nj=1NP(it=qi,it+1=qj,Oλ)P(it=qi,it+1=qj,Oλ)

    P ( i t = q i , i t + 1 = q j , O ∣ λ ) = α t ( i ) a i j b j ( o t + 1 ) β t + 1 ( j ) P\left(i_{t}=q_{i}, i_{t+1}=q_{j}, O | \lambda\right)=\alpha_{t}(i) a_{i j} b_{j}\left(o_{t+1}\right) \beta_{t+1}(j) P(it=qi,it+1=qj,Oλ)=αt(i)aijbj(ot+1)βt+1(j)
    于是化简得
    ξ t ( i , j ) = α t ( i ) a i j b j ( o t + 1 ) β t + 1 ( j ) ∑ i = 1 N ∑ j = 1 N α t ( i ) a i j b j ( o t + 1 ) β t + 1 ( j ) \xi_{t}(i, j)=\frac{\alpha_{t}(i) a_{i j} b_{j}\left(o_{t+1}\right) \beta_{t+1}(j)}{\sum_{i=1}^{N} \sum_{j=1}^{N} \alpha_{t}(i) a_{i j} b_{j}\left(o_{t+1}\right) \beta_{t+1}(j)} ξt(i,j)=i=1Nj=1Nαt(i)aijbj(ot+1)βt+1(j)αt(i)aijbj(ot+1)βt+1(j)
  3. 将γt(i)和ξt(i,j)对各个时刻t求和,可以得到一些有用的期望值:
    在观测O下状态i出现的期望值:
    ∑ t = 1 T γ t ( i ) \sum_{t=1}^{T} \gamma_{t}(i) t=1Tγt(i)
    在观刻O下由状态i转移的期望值:
    ∑ t = 1 T − 1 γ t ( i ) \sum_{t=1}^{T-1} \gamma_{t}(i) t=1T1γt(i)
    在观测O下由状态i转移到状态j的期望值:
    ∑ i = 1 T − 1 ξ t ( i , j ) \sum_{i=1}^{T-1} \xi_{t}(i, j) i=1T1ξt(i,j)

学习问题:监督学习方法和非监督学习方法(Baum-Welch算法)

已知观测序列O,估计模型λ的参数,使得在该模型下观测序列概率P(O|λ)最大。即用极大似然估计的方法估计参数。

监督学习方法

假设已给训练数据集包含S个长度相同的观测序列和对应的状态序列
( ( O 1 , I 1 ) , ( O 2 , I 2 ) , ⋯   , ( O S , I S ) ) (\left(O_{1}, I_{1}\right),\left(O_{2}, I_{2}\right), \cdots,\left(O_{S}, I_{S}\right)) ((O1,I1),(O2,I2),,(OS,IS))
下面利用极大似然估计法来估计隐马尔可夫模型的参数。

  1. 转移概率aij的估计:
    设样本中时刻t处于状态i时刻t+1转移到状态j的频数为Aij,那么状态转移概率aij的估计是
    a ^ i j = A j j ∑ j = 1 N A i j , i = 1 , 2 , ⋯   , N ; j = 1 , 2 , ⋯   , N \hat a_{i j}=\frac{A_{j j}}{\sum_{j=1}^{N} A_{i j}}, \quad i=1,2, \cdots, N ; j=1,2, \cdots, N a^ij=j=1NAijAjj,i=1,2,,N;j=1,2,,N
  2. 观测概率bj(k)的估计:
    设样本中状态为j并观测为k的频数是Bjk,那么状态为j观测为k的概率bj(k)的估计是:
    b ^ j ( k ) = B j k ∑ k = 1 M B j k , j = 1 , 2 , ⋯   , N i k = 1 , 2 , ⋯   , M \hat b_{j}(k)=\frac{B_{j k}}{\sum_{k=1}^{M} B_{j k}}, \quad j=1,2, \cdots, N_{i} \quad k=1,2, \cdots, M b^j(k)=k=1MBjkBjk,j=1,2,,Nik=1,2,,M
  3. 初始状态概率π的估计πi为S个样本中初始状态为qi的频率。

由于监督学习需要使用训练数据, 而人工标注训练数据往往代价很高,有时就会利用非监督学习的方法。

非监督学习方法——Baum-Welch算法

由于监督学习需要大量的标注数据,需要耗费很多的人力物力,因此,有时会采用非监督学习方法来进行参数估计。假设给定训练数据集只包含S个长度为T的观测序列而没有对应的状态序列
( O 1 , O 2 , ⋯   , O s ) (O_{1}, O_{2}, \cdots, O_{s}) (O1,O2,,Os)
我们的目标是学习隐马尔可夫模型λ=(A,B,π)的参数。我们将观测序列数据看作观测数据O,状态序列数据看作不可观测的隐数据I,那么隐马尔可夫模型实际上是一个含有隐变量的概率模型:
P ( O ∣ λ ) = ∑ I P ( O ∣ I , λ ) P ( I ∣ λ ) P(O | \lambda)=\sum_{I} P(O | I, \lambda) P(I | \lambda) P(Oλ)=IP(OI,λ)P(Iλ)
它的参数学习可以由EM算法实现。

  1. 确定完全数据的对数似然函数:
    所有观测数据写成:
    O = ( o 1 , o 2 , ⋯   , o T ) O=\left(o_{1}, o_{2}, \cdots, o_{T}\right) O=(o1,o2,,oT)
    所有隐数据写成:
    I = ( i 1 , i 2 , ⋯   , i T ) I=\left(i_{1}, i_{2}, \cdots, i_{T}\right) I=(i1,i2,,iT)
    完全数据是:
    ( O , I ) = ( o 1 , o 2 , ⋯   , o T , i 1 , i 2 , ⋯   , i T ) (O, I)=\left(o_{1}, o_{2}, \cdots, o_{T}, i_{1}, i_{2}, \cdots, i_{T}\right) (O,I)=(o1,o2,,oT,i1,i2,,iT)
    完全数据的对数似然函数是:
    log ⁡ P ( O , I ∣ λ ) \log P(O, I | \lambda) logP(O,Iλ)
  2. EM算法的E步:求Q函数
    Q ( λ , λ ‾ ) = ∑ I log ⁡ P ( O , I ∣ λ ) P ( O , I ∣ λ ‾ ) Q(\lambda, \overline{\lambda})=\sum_{I} \log P(O, I | \lambda) P(O, I | \overline{\lambda}) Q(λ,λ)=IlogP(O,Iλ)P(O,Iλ)
    左边等式中第一个λ是要极大化的隐马尔可夫模型参数,第二个λ是隐马尔可夫模型参数的当前估计值。
    P ( O , I ∣ λ ) = π i 1 b i 1 ( o 1 ) a i 1 i 2 b i 2 ( o 2 ) ⋯ a i 1 − 1 i T b i T ( o T ) P(O, I | \lambda)=\pi_{i_{1}} b_{i_{1}}\left(o_{1}\right) a_{i_{1} i_{2}} b_{i_{2}}\left(o_{2}\right) \cdots a_{i_{1-1} i_{T}} b_{i_{T}}\left(o_{T}\right) P(O,Iλ)=πi1bi1(o1)ai1i2bi2(o2)ai11iTbiT(oT)
    于是函数Q可以写成:
    Q ( λ , λ ‾ ) = ∑ I log ⁡ π i 1 P ( O , I ∣ λ ‾ ) + ∑ I ( ∑ t = 1 T − 1 log ⁡ a i , t + 1 ) P ( O , I ∣ λ ‾ ) + ∑ I ( ∑ t = 1 T log ⁡ b i i ( o t ) ) P ( O , I ∣ λ ‾ ) Q(\lambda, \overline{\lambda})=\sum_{I} \log \pi_{i1} P(O, I | \overline{\lambda}) \\\\ +\sum_{I}\left(\sum_{t=1}^{T-1} \log a_{i, t+1}\right) P(O, I | \overline{\lambda})+\sum_{I}\left(\sum_{t=1}^{T} \log b_{i_{i}}\left(o_{t}\right)\right) P(O, I | \overline{\lambda}) Q(λ,λ)=Ilogπi1P(O,Iλ)+I(t=1T1logai,t+1)P(O,Iλ)+I(t=1Tlogbii(ot))P(O,Iλ)
    式中求和都是对所有训练数据的序列总长度T进行的。
  3. EM 算法的M步:极大化Q函数,求模型参数A、B、π。
    由于要极大化的参数在上式中单独地出现在3个项中,所以只需对各项分别极大化。
    第一项可写为:
    ∑ I log ⁡ π i 0 P ( O , I ∣ λ ‾ ) = ∑ i = 1 N log ⁡ π i P ( O , i 1 = i ∣ λ ‾ ) \sum_{I} \log \pi_{i_{0}} P(O, I | \overline{\lambda})=\sum_{i=1}^{N} \log \pi_{i} P\left(O, i_{1}=i | \overline{\lambda}\right) Ilogπi0P(O,Iλ)=i=1NlogπiP(O,i1=iλ)
    πi满足约束条件:
    ∑ i = 1 N π i = 1 \sum_{i=1}^{N} \pi_{i}=1 i=1Nπi=1
    利用拉格朗日乘子法,写出拉格朗日函数:
    ∑ i = 1 N log ⁡ π i P ( O , i 1 = i ∣ λ ‾ ) + γ ( ∑ i = 1 N π i − 1 ) \sum_{i=1}^{N} \log \pi_{i} P\left(O, i_{1}=i | \overline{\lambda}\right)+\gamma\left(\sum_{i=1}^{N} \pi_{i}-1\right) i=1NlogπiP(O,i1=iλ)+γ(i=1Nπi1)
    对其求偏导数并令结果为0:
    ∂ ∂ π i [ ∑ i = 1 N log ⁡ π i P ( O , i 1 = i ∣ λ ‾ ) + γ ( ∑ i = 1 N π i − 1 ) ] = 0 \frac{\partial}{\partial \pi_{i}}\left[\sum_{i=1}^{N} \log \pi_{i} P\left(O, i_{1}=i | \overline{\lambda}\right)+\gamma\left(\sum_{i=1}^{N} \pi_{i}-1\right)\right]=0 πi[i=1NlogπiP(O,i1=iλ)+γ(i=1Nπi1)]=0
    得:
    P ( O , i 1 = i ∣ λ ‾ ) + γ π i = 0 P\left(O, i_{1}=i | \overline{\lambda}\right)+\gamma \pi_{i}=0 P(O,i1=iλ)+γπi=0
    对i求和得到γ:
    γ = − P ( O ∣ λ ‾ ) \gamma=-P(O | \overline{\lambda}) γ=P(Oλ)
    代回偏导数为0的式子中,得
    π i = P ( O , i 1 = i ∣ λ ‾ ) P ( O ∣ λ ‾ ) \pi_{i}=\frac{P\left(O, i_{1}=i | \overline{\lambda}\right)}{P(O | \overline{\lambda})} πi=P(Oλ)P(O,i1=iλ)
    第二项可写为:
    ∑ I ( ∑ t = 1 T − 1 log ⁡ a i t i t + 1 ) P ( O , I ∣ λ ‾ ) = ∑ i = 1 N ∑ j = 1 N ∑ t = 1 T − 1 log ⁡ a i j P ( O , i t = i , i t + 1 = j ∣ λ ‾ ) \sum_{I}\left(\sum_{t=1}^{T-1} \log a_{i_{t}i_{t+1}}\right) P(O, I | \overline{\lambda})=\sum_{i=1}^{N} \sum_{j=1}^{N} \sum_{t=1}^{T-1} \log a_{i j} P\left(O, i_{t}=i, i_{t+1}=j | \overline{\lambda}\right) I(t=1T1logaitit+1)P(O,Iλ)=i=1Nj=1Nt=1T1logaijP(O,it=i,it+1=jλ)
    类似第一项,应用具有约束条件
    ∑ j = 1 N a i j = 1 \sum_{j=1}^{N} a_{i j}=1 j=1Naij=1
    的拉格朗日乘了法可以求出
    a i j = ∑ i = 1 T − 1 P ( O , i t = i , i t + 1 = j ∣ λ ‾ ) ∑ t = 1 T − 1 P ( O , i t = i ∣ λ ‾ ) a_{i j}=\frac{\sum_{i=1}^{T-1} P\left(O, i_{t}=i, i_{t+1}=j | \overline{\lambda}\right)}{\sum_{t=1}^{T-1} P\left(O, i_{t}=i | \overline{\lambda}\right)} aij=t=1T1P(O,it=iλ)i=1T1P(O,it=i,it+1=jλ)
    第三项可写为:
    ∑ I ( ∑ t = 1 T log ⁡ b i t ( o t ) ) P ( O , I ∣ λ ‾ ) = ∑ j = 1 N ∑ t = 1 T log ⁡ b j ( o t ) P ( O , i t = j ∣ λ ‾ ) \sum_{I}\left(\sum_{t=1}^{T} \log b_{i_{t}}\left(o_{t}\right)\right) P(O, I | \overline{\lambda})=\sum_{j=1}^{N} \sum_{t=1}^{T} \log b_{j}\left(o_{t}\right) P\left(O, i_{t}=j | \overline{\lambda}\right) I(t=1Tlogbit(ot))P(O,Iλ)=j=1Nt=1Tlogbj(ot)P(O,it=jλ)
    同样用拉格朗日乘子法,约束条件是
    ∑ k = 1 M b j ( k ) = 1 \sum_{k=1}^{M} b_{j}(k)=1 k=1Mbj(k)=1
    注意只有在ot=vk时bj(ot)对bj(k)的偏导数才不为0,以I(ot=vk)表示。求得:
    b j ( k ) = ∑ t = 1 T P ( O , i t = j ∣ λ ‾ ) I ( o t = v k ) ∑ t = 1 T P ( O , i t = j ∣ λ ‾ ) b_{j}(k)=\frac{\sum_{t=1}^{T} P\left(O, i_{t}=j | \overline{\lambda}\right) I\left(o_{t}=v_{k}\right)}{\sum_{t=1}^{T} P\left(O, i_{t}=j | \overline{\lambda}\right)} bj(k)=t=1TP(O,it=jλ)t=1TP(O,it=jλ)I(ot=vk)
    将上面第三步中三项最终推出的公式中的各概率分别用γt(i),ξt(i,j)表示,则可将相应的公式写成:
    a i j = ∑ t = 1 T − 1 ξ t ( i , j ) ∑ t = 1 T − 1 γ t ( i ) a_{i j}=\frac{\sum_{t=1}^{T-1} \xi_{t}(i, j)}{\sum_{t=1}^{T-1} \gamma_{t}(i)} aij=t=1T1γt(i)t=1T1ξt(i,j)
    b j ( k ) = ∑ t = 1 , o t = v k T γ t ( j ) ∑ t = 1 T γ t ( j ) b_{j}(k)=\frac{\sum_{t=1,o_{t}=v_{k}}^{T} \gamma_{t}(j)}{\sum_{t=1}^{T} \gamma_{t}(j)} bj(k)=t=1Tγt(j)t=1,ot=vkTγt(j)
    π i = γ 1 ( i ) \pi_{i}=\gamma_{1}(i) πi=γ1(i)
    上面三式就是Baum-Welch算法。

Baum-Welch算法的流程如下:

  • 初始化,对n=0,选取aij(0),bj(k)(0),πi(0),得到模型
    λ ( 0 ) = ( A ( 0 ) , B ( 0 ) , π ( 0 ) ) \lambda^{(0)}=\left(A^{(0)}, B^{(0)}, \pi^{(0)}\right) λ(0)=(A(0),B(0),π(0))
  • 递推。对n=1,2,…,
    a i j ( n + 1 ) = ∑ t = 1 T − 1 ξ t ( i , j ) ∑ t = 1 T − 1 γ t ( i ) a_{i j}^{(n+1)}=\frac{\sum_{t=1}^{T-1} \xi_{t}(i, j)}{\sum_{t=1}^{T-1} \gamma_{t}(i)} aij(n+1)=t=1T1γt(i)t=1T1ξt(i,j)
    b j ( k ) ( n + 1 ) = ∑ t = 1 , o t = v k T γ t ( j ) ∑ t = 1 T γ t ( j ) b_{j}(k)^{(n+1)}=\frac{\sum_{t=1, o_{t}=v_{k}}^{T} \gamma_{t}(j)}{\sum_{t=1}^{T} \gamma_{t}(j)} bj(k)(n+1)=t=1Tγt(j)t=1,ot=vkTγt(j)
    π i ( n + 1 ) = γ 1 ( i ) \pi_{i}^{(n+1)}=\gamma_{1}(i) πi(n+1)=γ1(i)
    右端各值按
    O = ( o 1 , o 2 , ⋯   , o T ) O=\left(o_{1}, o_{2}, \cdots, o_{T}\right) O=(o1,o2,,oT)
    λ ( n ) = ( A ( n ) , B ( n ) , π ( n ) ) \lambda^{(n)}=\left(A^{(n)}, B^{(n)}, \pi^{(n)}\right) λ(n)=(A(n),B(n),π(n))
    计算。
  • 终止。得到模型参数:
    λ ( n + 1 ) = ( A ( n + 1 ) , B ( n + 1 ) , π ( n + 1 ) ) \lambda^{(n+1)}=\left(A^{(n+1)}, B^{(n+1)}, \pi^{(n+1)}\right) λ(n+1)=(A(n+1),B(n+1),π(n+1))

预测问题(解码问题):近似算法和维特比(Viterbi)算法

已知模型λ和观测序列O,求对给定观测序列条件概率P(I|O)最大的状态序列。即给定观测序列,求最有可能的对应的状态序列。

近似算法

近似算法的思想是,在每个时刻t选择在该时刻最有可能出现的状态it,从而得到一个状态序列
I ∗ = ( i 1 ∗ , i 2 ∗ , ⋯   , i T ∗ ) I^{\ast}=\left(i_{1}^{\ast}, i_{2}^{\ast}, \cdots, i_{T}^{\ast}\right) I=(i1,i2,,iT)
将它作为预测的结果。
给定隐马尔可夫模型λ和观测序列O,在时刻t处于状态qi的概率为:
γ t ( i ) = α t ( i ) β t ( i ) P ( O ∣ λ ) = α t ( i ) β t ( i ) ∑ j = 1 N α t ( j ) β t ( j ) \gamma_{t}(i)=\frac{\alpha_{t}(i) \beta_{t}(i)}{P(O | \lambda)}=\frac{\alpha_{t}(i) \beta_{t}(i)}{\sum_{j=1}^{N} \alpha_{t}(j) \beta_{t}(j)} γt(i)=P(Oλ)αt(i)βt(i)=j=1Nαt(j)βt(j)αt(i)βt(i)
在每一时刻t最有可能的状态it*是
i t ∗ = arg ⁡ max ⁡ 1 ⩽ i ⩽ N [ γ t ( i ) ] , t = 1 , 2 , ⋯   , T i_{t}^{\ast}=\arg \max_{1 \leqslant i \leqslant N}\left[\gamma_{t}(i)\right], \quad t=1,2, \cdots, T it=arg1iNmax[γt(i)],t=1,2,,T
从而得到状态序列I。
虽然近似计算思想简单,但是预测的序列可能有实际不发生的部分,即有可能出现转移概率为0的相邻状态,没法保证整体上的状态序列是最有可能的。

维特比(Viterbi)算法

维特比算法则通过动态规划求概率最大的路径(最优路径),这时每一条路径即对应着一个状态序列。维特比算法从时刻t=1开始,递推地计算在时刻t状态为i的各条部分路径的最大概率,直到得到时刻t=T状态为i的各条路径的最大概率,时刻t=T的最大概率记为最优路径的概率P,最优路径的终结点iT也同时得到,之后,从终结点开始,由后向前逐步求得结点
i T − 1 ∗ , ⋯   , i 1 ∗ i_{T-1}^{\ast}, \cdots, i_{1}^{\ast} iT1,,i1
最终得到最优状态序列(最优路径):
I ∗ = ( i 1 ∗ , i 2 ∗ , ⋯   , i T ∗ ) I^{\ast}=\left(i_{1}^{\ast}, i_{2}^{\ast}, \cdots, i_{T}^{*}\right) I=(i1,i2,,iT)
首先定义两个变量δ和ψ,定义在时刻t状态为i的所有单个路径
( i 1 , i 2 , ⋯   , i t ) \left(i_{1}, i_{2}, \cdots, i_{t}\right) (i1,i2,,it)
中概率最大值为
δ t ( i ) = max ⁡ i 1 , i 2 , ⋯   , t − 1 P ( i t = i , i t − 1 , ⋯   , i 1 , o t , ⋯   , o 1 ∣ λ ) , i = 1 , 2 , ⋯   , N \delta_{t}(i)=\max _{i_{1}, i_{2}, \cdots, t-1} P\left(i_{t}=i, i_{t-1}, \cdots, i_{1}, o_{t}, \cdots, o_{1} | \lambda\right), \quad i=1,2, \cdots, N δt(i)=i1,i2,,t1maxP(it=i,it1,,i1,ot,,o1λ),i=1,2,,N
由定义可得δ的递推公式:
δ t + 1 ( i ) = max ⁡ i 1 , i 2 , ⋯   , i t P ( i t + 1 = i , i t , ⋯   , i 1 , o t + 1 , ⋯   , o 1 ∣ λ ) = max ⁡ 1 ⩽ j ⩽ N [ δ t ( j ) a j i ] b i ( o t + 1 ) , i = 1 , 2 , ⋯   , N ; t = 1 , 2 , ⋯   , T − 1 \delta_{t+1}(i)=\max_{i_{1}, i_{2}, \cdots, i_{t}} P\left(i_{t+1}=i, i_{t}, \cdots, i_{1}, o_{t+1}, \cdots, o_{1} | \lambda\right) \\\\ =\max_{1 \leqslant j \leqslant N}\left[\delta_{t}(j) a_{j i}\right] b_{i}\left(o_{t+1}\right), \quad i=1,2, \cdots, N ; t=1,2, \cdots, T-1 δt+1(i)=i1,i2,,itmaxP(it+1=i,it,,i1,ot+1,,o1λ)=1jNmax[δt(j)aji]bi(ot+1),i=1,2,,N;t=1,2,,T1
定义在时刻t状态为i的所有单个路径
( i 1 , i 2 , ⋯   , i t − 1 , i ) \left(i_{1}, i_{2}, \cdots, i_{t-1}, i\right) (i1,i2,,it1,i)
中概率最大的路径的第t−1个结点为:
ψ t ( i ) = arg ⁡ max ⁡ 1 ⩽ j ⩽ N [ δ t − 1 ( j ) a j i ] , i = 1 , 2 , ⋯   , N \psi_{t}(i)=\arg \max_{1 \leqslant j \leqslant N}\left[\delta_{t-1}(j) a_{j i}\right], \quad i=1,2, \cdots, N ψt(i)=arg1jNmax[δt1(j)aji],i=1,2,,N
维特比算法流程如下:

  • 输入模型λ和观测O;
  • 初始化
    δ 1 ( i ) = π i b i ( o 1 ) , i = 1 , 2 , ⋯   , N ψ 1 ( i ) = 0 , i = 1 , 2 , ⋯   , N \delta_{1}(i)=\pi_{i} b_{i}\left(o_{1}\right), \qquad i=1,2, \cdots, N \\\\ \psi_{1}(i)=0, \qquad i=1,2, \cdots, N δ1(i)=πibi(o1),i=1,2,,Nψ1(i)=0,i=1,2,,N
  • 递推,对t=2,3,···,T
    δ t ( i ) = max ⁡ 1 ≤ j ≤ N [ δ t − 1 ( j ) a j i ] b i ( o t ) , i = 1 , 2 , ⋯   , N ψ t ( i ) = arg ⁡ max ⁡ 1 ⩽ j ⩽ N [ δ t − 1 ( j ) a j i ] , i = 1 , 2 , ⋯   , N \delta_{t}(i)=\max_{1 \leq j \leq N}\left[\delta_{t-1}(j) a_{j i}\right] b_{i}\left(o_{t}\right), \quad i=1,2, \cdots, N \\\\ \psi_{t}(i)=\arg \max_{1 \leqslant j \leqslant N}\left[\delta_{t-1}(j) a_{j i}\right], \quad i=1,2, \cdots, N δt(i)=1jNmax[δt1(j)aji]bi(ot),i=1,2,,Nψt(i)=arg1jNmax[δt1(j)aji],i=1,2,,N
  • 终止
    P ∗ = max ⁡ 1 ≤ i ⩽ N δ T ( i ) i T ∗ = arg ⁡ max ⁡ 1 ≤ i ⩽ N [ δ T ( i ) ] P^{\ast}=\max_{1 \leq i \leqslant N} \delta_{T}(i) \\\\ i_{T}^{\ast}=\arg \max_{1 \leq i \leqslant N}\left[\delta_{T}(i)\right] P=1iNmaxδT(i)iT=arg1iNmax[δT(i)]
  • 最终路径回溯,对t=T-l,T-2,…,1
    i t ∗ = ψ t + 1 ( i t + 1 ∗ ) i_{t}^{\ast}=\psi_{t+1}\left(i_{t+1}^{\ast}\right) it=ψt+1(it+1)
    得到最优路径
    I ∗ = ( i 1 ∗ , i 2 ∗ , ⋯   , i T ∗ ) I^{\ast}=\left(i_{1}^{\ast}, i_{2}^{\ast}, \cdots, i_{T}^{\ast}\right) I=(i1,i2,,iT)

用比较通俗的语言来解释以下维特比算法的流程:

  • 首先我们根据上面的监督学习方法从原始训练集数据中计算得到隐马尔可夫模型的三个参数:转移矩阵A,发射矩阵B,初始概率π。然后我们输入一个观测序列(观测1,观测2…观测s)。
  • 对观测1:
    设状态用字母a表示,a从1取到N。根据下面的计算公式,我们分别计算N个P(观测1,状态a)。
P(观测1,状态a)=P(观测1->状态a)*P(状态a初始概率)=发射矩阵中状态a观测为观测1的概率*初始概率矩阵中初始状态为a的概率
  • 对观测2:
    设状态用字母b表示,b从1取到N。根据下面的计算公式,我们分别计算N个P(观测2,状态b)。注意max中有N项,最终取最大值。
P(观测2,状态b)=max{ P(观测1,状态a)*P(状态a->状态b),a从1取到N,所以中括号里共N项}*P(观测2->状态b)=max{上一步计算出的N个P(观测1,状态a)*每一个状态a对应的状态a转移到状态b的概率}* 发射矩阵中状态b观测为观测2的概率
  • 对观测3…观测s:
    设观测序号为s,状态用字母t表示,t从1取到N。m表示观测s的前一个观测可能的状态取值,从1取到N。根据下面的计算公式,对每个观测,我们分别计算N个P(观测s,状态t)。注意max中有N项,最终取最大值。
P(观测s,状态t)=max{ P(观测s-1,状态m)*P(状态m->状态t),m从1取到N,所以中括号里共N项}*P(观测s->状态t)=max{上一步的N个P(观测s-1,状态m)*每一个状态m对应的状态m转移到状态t的概率}*发射矩阵中状态t观测为观测s的概率
  • 假设s已经是最后一个观测值,从所有概率值中选出最大的那个P(观测s,状态t),则状态t就是我们的观测s的最优状态。由于前面的步骤我们使用了回溯法,在每一步时记录了取得的max值时的P(观测s-1,状态m)的状态m,这样我们就可以通过回溯一步一步从最后一个观测值开始得到每一个观测值的最优状态。最后得到一个和观测序列对应的完整的状态序列。这就是维特比算法。

维特比算法计算举例:
假设已知:
状态集合:健康,发烧;
观测集合:正常、冷、头晕;
初始状态概率矩阵:

健康	发烧
0.6	0.4

转移矩阵:注意转移矩阵的行是上一个状态,列是下一个状态

状态	健康	发烧
健康	0.7	0.3
发烧	0.4	0.6

发射矩阵:

	正常	冷	头晕
健康	0.5	0.4	0.1
发烧	0.1	0.3	0.6

现在知道某个人三天的观测序列为:正常,冷,头晕,求这个人这三天最有可能的状态序列?
对第一个状态:正常

P(第一天正常,第一天健康)=P(正常->健康)*P(健康的初始概率)=0.5*0.6=0.3
P(第一天正常,第一天发烧)=P(正常->发烧)*P(发烧的初始概率)=0.1*0.4=0.04

记录每个概率P取的状态,P(第一天正常,第一天健康)取的是健康;P(第一天正常,第一天发烧)取的是发烧。

对第二个状态:冷

P(第二天冷,第二天健康)=max{ P(第一天正常,第一天健康)*P(健康->健康),P(第一天正常,第一天发烧)*P(发烧->健康)}* P(观测冷为健康)=max{0.3*0.7,0.04*0.4}*0.4=0.084
P(第二天冷,第二天发烧)= max{ P(第一天正常,第一天健康)*P(健康->发烧),P(第一天正常,第一天发烧)*P(发烧->发烧)}* P(观测冷为发烧)=max{0.3*0.3,0.04*0.6}*0.3=0.027

记录每个P中max取的上一次的概率,P(第二天冷,第二天健康)取的是P(第一天正常,第一天健康);P(第二天冷,第二天发烧)取的是P(第一天正常,第一天健康)。

对第三个状态:头晕

P(第三天头晕,第三天健康)= max{ P(第二天冷,第二天健康)*P(健康->健康),P(第二天冷,第二天发烧)*P(发烧->健康)}* P(观测头晕为健康)=max{0.084*0.7,0.027*0.4}*0.1=0.00588
P(第三天头晕,第三天发烧)= max{ P(第二天冷,第二天健康)*P(健康->发烧),P(第二天冷,第二天发烧)*P(发烧->发烧)}* P(观测头晕为发烧)=max{0.084*0.3,0.027*0.6}*0.6=0.01512

记录每个P中max取的上一次的概率,P(第三天头晕,第三天健康)取的是P(第二天冷,第二天健康);P(第三天头晕,第三天发烧)取的是P(第二天冷,第二天健康)。

回溯:
最后一个状态最大概率是P(第三天头晕,第三天发烧)= 0.01512,记录对应状态是发烧。max中取的是P(第二天冷,第二天健康)。即倒数第二个观测取的状态是健康。然后继续回溯,P(第二天冷,第二天健康)max中取的是P(第一天正常,第一天健康),所以第一个观测取的状态也是健康。
所以最终的最优状态序列为:健康、健康、发烧。

你可能感兴趣的:(机器学习原理推导)