隐马尔科夫模型HMM(Hidden Markov Model)学习

     在深度学习领域,我们学习了深度神经网络、RNN、LSTM、Seq2Seq等时序模型, 机器学习的隐马尔科夫模型HMM(Hidden Markov Model)也是关于时序的概率模型,在语言识别,强化学习等领域应用较广,HMM的网络及概念可以借鉴深度神经网络的原理方法来理解,本文从李航《统计学习方法》书中例举的盒子与球的例子来学习HMM的基本概念。

    

     HMM模型中Q是所有可能的隐藏状态的集合,V是所有可能的观测状态的集合:Q={q1,q2,...,q},V={v1,v2,...vM},N是隐藏状态数,M是观察状态数。对于一个长度为T的序列,I对应的状态序列(类似RNN中的状态s), O是对应的观察序列(类似RNN的预测输出序列),I={i1,i2,...,iT},O={o1,o2,...oT}  it∈Q , ot∈V


  HMM模型的两个基本假设:

 1) 齐次马尔科夫链假设。任意时刻的隐藏状态只与前一个隐藏状态相关 。 

 2) 观测独立性假设。任意时刻的观察状态只与当前时刻的隐藏状态相关。

 HMM模型由隐藏状态初始概率分布Π, 状态转移概率矩阵A和观测状态概率矩阵B决定。Π,A决定状态序列,B决定观测序列。HMM模型可以由一个三元组λ表示:λ=(A,B,Π)


HMM模型盒子与球实例:

      如果有3个盒子,每个盒子里分别放有红球和白球,盒子里红球、白球的数量如下表,现在分别从盒子里取球,假设从第一个盒子取球的概率为0.2,从第二个盒子取球的概率是0.4,从第三个盒子取球的概率是0.4,取球以后将球放回。

球数 盒子一 盒子二 盒子三
红球数 5 4 7
白球数 5 6 3

       这里取3次球,取球的规则如下:

  •  如果当前取的是第一个盒子,则接下来随机在三个盒子中取球的概率是,第一个盒子0.5,第二个盒子0.2,第三个盒子0.3;

  • 如果当前取的是第二个盒子,则接下来随机在三个盒子中取球的概率是,第一个盒子0.3,第二个盒子0.5,第三个盒子0.2;

  • 如果当前取的是第三个盒子,则接下来随机在三个盒子中取球的概率是,第一个盒子0.2,第二个盒子0.3,第三个盒子0.5;

      依次取到3个球,得到的球观测序列的颜色为: O={红,白,红}。HMM模型中盒子与球的概念如图所示。


隐马尔科夫模型HMM(Hidden Markov Model)学习_第1张图片




喜欢我们发布的信息,就在右下角点一下“好看”吧!

欢迎转发分享!




你可能感兴趣的:(隐马尔科夫模型HMM(Hidden Markov Model)学习)