隐马尔可夫模型HMM学习笔记

参考:

https://www.cnblogs.com/pinard/p/6945257.html

https://www.cnblogs.com/pinard/p/6991852.html

https://www.hankcs.com/ml/hidden-markov-model.html

例子详细计算过程:

 

Q是所有可能的隐藏状态的集合,V是所有可能的观测状态的集合,则

Q=\{q_{1},q_{2},q_{3}\},分别表示盒子1、盒子2、盒子3,此时N=3;

V=\{v_{1}, v_{2}\},分别表示红色、白色,此时N=2;

对于一个长度为3的序列,I是对应的状态序列, O是对应的观察序列

    假设我们有3个盒子,每个盒子里都有红色和白色两种球,这三个盒子里球的数量分别是:

盒子 1 2 3
红球数 5 4 7
白球数 5 6 3

    按照下面的方法从盒子里抽球,开始的时候,从第一个盒子抽球的概率是0.2,从第二个盒子抽球的概率是0.4,从第三个盒子抽球的概率是0.4。以这个概率抽一次球后,将球放回。然后从当前盒子转移到下一个盒子进行抽球。规则是:如果当前抽球的盒子是第一个盒子,则以0.5的概率仍然留在第一个盒子继续抽球,以0.2的概率去第二个盒子抽球,以0.3的概率去第三个盒子抽球。如果当前抽球的盒子是第二个盒子,则以0.5的概率仍然留在第二个盒子继续抽球,以0.3的概率去第一个盒子抽球,以0.2的概率去第三个盒子抽球。如果当前抽球的盒子是第三个盒子,则以0.5的概率仍然留在第三个盒子继续抽球,以0.2的概率去第一个盒子抽球,以0.3的概率去第二个盒子抽球。如此下去,直到重复三次,得到一个球的颜色的观测序列:

O={红,白,红}

初始状态分布为:

\prod =(0.2,0.4,0.4)^{T}

状态转移概率分布矩阵为:

p(i_{2}=q_{1}|i_{1}=q_{1}) = 0.5; p(i_{2}=q_{2}|i_{1}=q_{1}) = 0.2; p(i_{2}=q_{3}|i_{1}=q_{1}) = 0.3

p(i_{2}=q_{1}|i_{1}=q_{2}) = 0.3; p(i_{2}=q_{2}|i_{1}=q_{2}) = 0.5; p(i_{2}=q_{3}|i_{1}=q_{2}) = 0.2

p(i_{2}=q_{1}|i_{1}=q_{3}) = 0.2; p(i_{2}=q_{2}|i_{1}=q_{3}) = 0.3; p(i_{2}=q_{3}|i_{1}=q_{3}) = 0.5

A = \left( \begin{array} {ccc} 0.5 & 0.2 & 0.3 \\ 0.3 & 0.5 & 0.2 \\ 0.2 & 0.3 &0.5 \end{array} \right)

观测状态概率矩阵为:

b_1(1) = P(o_t = v_1 | i_t= q_1) = 0.5; b_2(1) = P(o_t = v_1 | i_t= q_2) = 0.4;b_3(1) = P(o_t = v_1 | i_t= q_3) = 0.7

b_1(2) = P(o_t = v_2 | i_t= q_1) = 0.5;b_2(2) = P(o_t = v_2 | i_t= q_2) = 0.6; b_3(2) = P(o_t = v_2 | i_t= q_3) = 0.3;

B = \left( \begin{array} {ccc} 0.5 & 0.5 \\ 0.4 & 0.6 \\ 0.7 & 0.3 \end{array} \right)

HMM最可能隐藏状态序列求解概述

在HMM模型的解码问题中,给定模型\lambda = (A, B, \Pi)和观测序列O =\{o_1,o_2,...o_T\},求给定观测序列O条件下,最可能出现的对应的状态序列I^*= \{i_1^*,i_2^*,...i_T^*\},即P(I^*|O)要最大化。

维特比算法流程总结

 

 输入:HMM模型 \lambda = (A, B, \Pi),观测序列O=(o_1,o_2,...o_T)

 输出:最有可能的隐藏状态序列I^*= \{i_1^*,i_2^*,...i_T^*\}

  1)初始化局部状态:

\delta_1(i) = \pi_ib_i(o_1),\;i=1,2...N

\Psi_1(i)=0,\;i=1,2...N

 2) 进行动态规划递推时刻t=2,3,...T时刻的局部状态:

\delta_{t}(i) = \max_{1 \leq j \leq N}\;[\delta_{t-1}(j)a_{ji}]b_i(0_{t}),\;i=1,2...N

\Psi_t(i) = arg \; \max_{1 \leq j \leq N}\;[\delta_{t-1}(j)a_{ji}],\;i=1,2...N

3) 计算时刻T最大的\delta_{T}(i),即为最可能隐藏状态序列出现的概率。计算时刻T最大的\Psi_t(i),即为时刻T最可能的隐藏状态。

P* = \max_{1 \leq j \leq N}\delta_{T}(i)

i_T^* = arg \; \max_{1 \leq j \leq N}\;[\delta_{T}(i)]

 

 4) 利用局部状态 \Psi(i)开始回溯。对于t=T-1,T-2,...,1

i_t^* = \Psi_{t+1}(i_{t+1}^*)

 

最终得到最有可能的隐藏状态序列 I^*= \{i_1^*,i_2^*,...i_T^*\}

HMM维特比算法求解上述实例

(1) 首先需要得到三个隐藏状态在时刻1时对应的各自两个局部状态,此时观测状态为1(o1指红色).

\delta_1(1) = \pi_1b_1(o_1) = 0.2 \times 0.5 = 0.1

\delta_1(2) = \pi_2b_2(o_1) = 0.4 \times 0.4 = 0.16

\delta_1(3) = \pi_3b_3(o_1) = 0.4 \times 0.7 = 0.28

\Psi_1(1)=\Psi_1(2) =\Psi_1(3) =0

(2) 现在开始递推三个隐藏状态在时刻2时对应的各自两个局部状态,此时观测状态为2(o2指白色):

\delta_2(1) = \max_{1\leq j \leq 3}[\delta_1(j)a_{j1}]b_1(o_2) = \max_{1\leq j \leq 3}[0.1 \times 0.5, 0.16 \times 0.3, 0.28\times 0.2] \times 0.5 = 0.028

\Psi_2(1)=3

\delta_2(2) = \max_{1\leq j \leq 3}[\delta_1(j)a_{j2}]b_2(o_2) = \max_{1\leq j \leq 3}[0.1 \times 0.2, 0.16 \times 0.5, 0.28\times 0.3] \times 0.6 = 0.0504

\Psi_2(2)=3

\delta_2(3) = \max_{1\leq j \leq 3}[\delta_1(j)a_{j3}]b_3(o_2) = \max_{1\leq j \leq 3}[0.1 \times 0.3, 0.16 \times 0.2, 0.28\times 0.5] \times 0.3 = 0.042

\Psi_2(3)=3

(3) 继续递推三个隐藏状态在时刻3时对应的各自两个局部状态,此时观测状态为1(o1指红色):

\delta_3(1) = \max_{1\leq j \leq 3}[\delta_2(j)a_{j1}]b_1(o_3) = \max_{1\leq j \leq 3}[0.028 \times 0.5, 0.0504 \times 0.3, 0.042\times 0.2] \times 0.5 = 0.00756

\Psi_3(1)=2

\delta_3(2) = \max_{1\leq j \leq 3}[\delta_2(j)a_{j2}]b_2(o_3) = \max_{1\leq j \leq 3}[0.028 \times 0.2, 0.0504\times 0.5, 0.042\times 0.3] \times 0.4 = 0.01008

\Psi_3(2)=2

\delta_3(3) = \max_{1\leq j \leq 3}[\delta_2(j)a_{j3}]b_3(o_3) = \max_{1\leq j \leq 3}[0.028 \times 0.3, 0.0504 \times 0.2, 0.042\times 0.5] \times 0.7 = 0.0147

\Psi_3(3)=3

 

此时已经到最后的时刻,我们开始准备回溯。此时最大概率为 \delta_3(3),从而得到i_3^* =3

由于\Psi_3(3)=3,所以i_2^* =3,而又由于\Psi_2(3)=3,所以i_1^* =3

从而得到最终的最可能的隐藏状态序列为:(3,3,3)。

 

 

 

 

你可能感兴趣的:(ML,机器学习)