机器学习HMM模型

目录

  • 1 马尔科夫链
    • 1.1 简介
    • 1.2 经典举例
    • 1.3 小结
  • 2 HMM简介
    • 2.1 简单案例
    • 2.2 案例进阶
      • 2.2.1 问题阐述
      • 2.2.2 问题解决
  • 3 HMM模型基础
    • 3.1 什么样的问题需要HMM模型
    • 3.2 HMM模型的定义
    • 3.3 一个HMM模型实例
    • 3.4 HMM观测序列的生成
    • 3.5 HMM模型的三个基本问题
  • 4 前向后向算法评估观察序列概率
    • 4.1 回顾HMM问题一:求观测序列的概率


1 马尔科夫链

1.1 简介

在机器学习算法中,马尔可夫链(Markov chain)是个很重要的概念。马尔可夫链(Markov chain),又称离散时间马尔可夫链(discrete-time Markov chain),因俄国数学家安德烈·马尔可夫(俄语:Андрей Андреевич Марков)得名。

机器学习HMM模型_第1张图片

马尔科夫链即为状态空间中从一个状态到另一个状态转换的随机过程。

机器学习HMM模型_第2张图片

  • 该过程要求具备

    “无记忆”

    的性质:

    • 下一状态的概率分布只能由当前状态决定,在时间序列中它前面的事件均与之无关。这种特定类型的“无记忆性”称作马尔可夫性质
  • 马尔科夫链作为实际过程的统计模型具有许多应用。

  • 在马尔可夫链的每一步,系统根据概率分布,可以从一个状态变到另一个状态,也可以保持当前状态。

  • 状态的改变叫做转移,与不同的状态改变相关的概率叫做转移概率。

  • 马尔可夫链的数学表示为:image-20191210145302488

  • 既然某一时刻状态转移的概率只依赖前一个状态,那么只要求出系统中任意两个状态之间的转移概率,这个马尔科夫链的模型就定了。

1.2 经典举例

下图中的马尔科夫链是用来表示股市模型,共有三种状态:牛市(Bull market), 熊市(Bear market)和横盘(Stagnant market)。

每一个状态都以一定的概率转化到下一个状态。比如,牛市以0.025的概率转化到横盘的状态。

机器学习HMM模型_第3张图片

  • 这个状态概率转化图可以以矩阵的形式表示。
  • 如果我们定义矩阵阵P某一位置P(i, j)的值为P(j|i),即从状态i变为状态j的概率。
  • 另外定义牛市、熊市、横盘的状态分别为0、1、2,这样我们得到了马尔科夫链模型的状态转移矩阵为:

机器学习HMM模型_第4张图片

当这个状态转移矩阵P确定以后,整个股市模型就已经确定!


1.3 小结

  • 马尔科夫链即为

    • 状态空间中从一个状态到另一个状态转换的随机过程。

    • 该过程要求具备

      “无记忆”

      的性质:

      • 下一状态的概率分布只能由当前状态决定,在时间序列中它前面的事件均与之无关

2 HMM简介

2.1 简单案例

隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。

**其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,**例如模式识别。

下面我们一起用一个简单的例子来阐述:

  • 假设我手里有三个不同的骰子。
    • 第一个骰子是我们平常见的骰子(称这个骰子为D6),6个面,每个面(1,2,3,4,5,6)出现的概率是1/6。
    • 第二个骰子是个四面体(称这个骰子为D4),每个面(1,2,3,4)出现的概率是1/4。
    • 第三个骰子有八个面(称这个骰子为D8),每个面(1,2,3,4,5,6,7,8)出现的概率是1/8。

机器学习HMM模型_第5张图片

  • 我们开始掷骰子,我们先从三个骰子里挑一个,挑到每一个骰子的概率都是1/3。
  • 然后我们掷骰子,得到一个数字,1,2,3,4,5,6,7,8中的一个。不停的重复上述过程,我们会得到一串数字,每个数字都是1,2,3,4,5,6,7,8中的一个。
  • 例如我们可能得到这么一串数字(掷骰子10次):1 6 3 5 2 7 3 5 2 4
  • 这串数字叫做可见状态链。

但是在隐马尔可夫模型中,我们不仅仅有这么一串可见状态链,还有一串隐含状态链

  • 在这个例子里,这串隐含状态链就是你用的骰子的序列。
    • 比如,隐含状态链有可能是:D6 D8 D8 D6 D4 D8 D6 D6 D4 D8

一般来说,**HMM中说到的马尔可夫链其实是指隐含状态链,**因为隐含状态(骰子)之间存在转换概率(transition probability)。

  • 在我们这个例子里,D6的下一个状态是D4,D6,D8的概率都是1/3。D4,D8的下一个状态是D4,D6,D8的转换概率也都一样是1/3。
  • 这样设定是为了最开始容易说清楚,但是我们其实是可以随意设定转换概率的。
    • 比如,我们可以这样定义,D6后面不能接D4,D6后面是D6的概率是0.9,是D8的概率是0.1。
    • 这样就是一个新的HMM。

同样的,尽管可见状态之间没有转换概率,但是隐含状态和可见状态之间有一个概率叫做输出概率(emission probability)。

  • 就我们的例子来说,六面骰(D6)产生1的输出概率是1/6。产生2,3,4,5,6的概率也都是1/6。
  • 我们同样可以对输出概率进行其他定义。比如,我有一个被赌场动过手脚的六面骰子,掷出来是1的概率更大,是1/2,掷出来是2,3,4,5,6的概率是1/10。

机器学习HMM模型_第6张图片

机器学习HMM模型_第7张图片

其实对于HMM来说,如果提前知道所有隐含状态之间的转换概率和所有隐含状态到所有可见状态之间的输出概率,做模拟是相当容易的。但是应用HMM模型时候呢,往往是缺失了一部分信息的。

  • 有时候你知道骰子有几种,每种骰子是什么,但是不知道掷出来的骰子序列;
  • 有时候你只是看到了很多次掷骰子的结果,剩下的什么都不知道。

如果应用算法去估计这些缺失的信息,就成了一个很重要的问题。这些算法我会在后面详细讲。

2.2 案例进阶

2.2.1 问题阐述

和HMM模型相关的算法主要分为三类,分别解决三种问题:

1)知道骰子有几种(隐含状态数量),每种骰子是什么(转换概率),根据掷骰子掷出的结果(可见状态链),我想知道每次掷出来的都是哪种骰子(隐含状态链)。

  • 这个问题呢,在语音识别领域呢,叫做解码问题。
  • 这个问题其实有两种解法,会给出两个不同的答案。每个答案都对,只不过这些答案的意义不一样。
    • 第一种解法求最大似然状态路径,说通俗点呢,就是我求一串骰子序列,这串骰子序列产生观测结果的概率最大。
    • 第二种解法呢,就不是求一组骰子序列了,而是求每次掷出的骰子分别是某种骰子的概率。比如说我看到结果后,我可以求得第一次掷骰子是D4的概率是0.5,D6的概率是0.3,D8的概率是0.2。

2)还是知道骰子有几种(隐含状态数量),每种骰子是什么(转换概率),根据掷骰子掷出的结果(可见状态链),我想知道掷出这个结果的概率。

  • 看似这个问题意义不大,因为你掷出来的结果很多时候都对应了一个比较大的概率。
  • 问这个问题的目的呢,其实是检测观察到的结果和已知的模型是否吻合。
  • 如果很多次结果都对应了比较小的概率,那么就说明我们已知的模型很有可能是错的,有人偷偷把我们的骰子給换了。

3)知道骰子有几种(隐含状态数量),不知道每种骰子是什么(转换概率),观测到很多次掷骰子的结果(可见状态链),我想反推出每种骰子是什么(转换概率)。

  • 这个问题很重要,因为这是最常见的情况。
  • 很多时候我们只有可见结果,不知道HMM模型里的参数,我们需要从可见结果估计出这些参数,这是建模的一个必要步骤。

2.2.2 问题解决

1 一个简单问题【对应问题二】

其实这个问题实用价值不高。由于对下面较难的问题有帮助,所以先在这里提一下。

  • 知道骰子有几种,每种骰子是什么,每次掷的都是什么骰子,根据掷骰子掷出的结果,求产生这个结果的概率。

机器学习HMM模型_第8张图片

  • 解法无非就是概率相乘:

image-20200205171624466

2 看见不可见的,破解骰子序列【对应问题一】

这里我说的是第一种解法,解最大似然路径问题。

举例来说,我知道我有三个骰子,六面骰,四面骰,八面骰。我也知道我掷了十次的结果

(1 6 3 5 2 7 3 5 2 4),我不知道每次用了那种骰子,我想知道最有可能的骰子序列。

其实最简单而暴力的方法就是穷举所有可能的骰子序列,然后依照上一个问题的解法把每个序列对应的概率算出来。然后我们从里面把对应最大概率的序列挑出来就行了。

如果马尔可夫链不长,当然可行。如果长的话,穷举的数量太大,就很难完成了。

另外一种很有名的算法叫做维特比算法(Viterbi algorithm). 要理解这个算法,我们先看几个简单的列子。 首先,如果我们只掷一次骰子:

机器学习HMM模型_第9张图片

看到结果为1.对应的最大概率骰子序列就是D4,因为D4产生1的概率是1/4,高于1/6和1/8.

把这个情况拓展,我们掷两次骰子:

机器学习HMM模型_第10张图片

结果为1,6.这时问题变得复杂起来,我们要计算三个值,分别是第二个骰子是D6,D4,D8的最大概率。显然,要取到最大概率,第一个骰子必须为D4。这时,第二个骰子取到D6的最大概率是:

image-20200205171730131

同样的,我们可以计算第二个骰子是D4或D8时的最大概率。我们发现,第二个骰子取到D6的概率最大。而使这个概率最大时,第一个骰子为D4。所以最大概率骰子序列就是D4 D6。 继续拓展,我们掷三次骰子:

机器学习HMM模型_第11张图片

同样,我们计算第三个骰子分别是D6,D4,D8的最大概率。我们再次发现,要取到最大概率,第二个骰子必须为D6。这时,第三个骰子取到D4的最大概率是:

image-20200205171815846

同上,我们可以计算第三个骰子是D6或D8时的最大概率。我们发现,第三个骰子取到D4的概率最大。而使这个概率最大时,第二个骰子为D6,第一个骰子为D4。所以最大概率骰子序列就是D4 D6 D4。


写到这里,大家应该看出点规律了。既然掷骰子一、二、三次可以算,掷多少次都可以以此类推。

我们发现,我们要求最大概率骰子序列时要做这么几件事情。

  • 首先,不管序列多长,**要从序列长度为1算起,**算序列长度为1时取到每个骰子的最大概率。
  • 然后,逐渐增加长度,每**增加一次长度,重新算一遍在这个长度下最后一个位置取到每个骰子的最大概率。**因为上一个长度下的取到每个骰子的最大概率都算过了,重新计算的话其实不难。
  • 当我们算到最后一位时,就知道最后一位是哪个骰子的概率最大了。然后,我们要把对应这个最大概率的序列从后往前推出来。

3 谁动了我的骰子?【对应问题三】

比如说你怀疑自己的六面骰被赌场动过手脚了,有可能被换成另一种六面骰,这种六面骰掷出来是1的概率更大,是1/2,掷出来是2,3,4,5,6的概率是1/10。你怎么办么?

  • 答案很简单,算一算正常的三个骰子掷出一段序列的概率,再算一算不正常的六面骰和另外两个正常骰子掷出这段序列的概率。如果前者比后者小,你就要小心了。

比如说掷骰子的结果是:

机器学习HMM模型_第12张图片

要算用正常的三个骰子掷出这个结果的概率,其实就是将所有可能情况的概率进行加和计算。

同样,简单而暴力的方法就是把穷举所有的骰子序列,还是计算每个骰子序列对应的概率,但是这回,我们不挑最大值了,而是把所有算出来的概率相加,得到的总概率就是我们要求的结果。这个方法依然不能应用于太长的骰子序列(马尔可夫链)。 我们会应用一个和前一个问题类似的解法,只不过前一个问题关心的是概率最大值,这个问题关心的是概率之和。解决这个问题的算法叫做前向算法(forward algorithm)。

首先,如果我们只掷一次骰子:

机器学习HMM模型_第13张图片

看到结果为1.产生这个结果的总概率可以按照如下计算,总概率为0.18:

机器学习HMM模型_第14张图片

把这个情况拓展,我们掷两次骰子:

机器学习HMM模型_第15张图片

看到结果为1,6.产生这个结果的总概率可以按照如下计算,总概率为0.05:

机器学习HMM模型_第16张图片

继续拓展,我们掷三次骰子:

机器学习HMM模型_第17张图片

看到结果为1,6,3.产生这个结果的总概率可以按照如下计算,总概率为0.03:

机器学习HMM模型_第18张图片

同样的,我们一步一步的算,有多长算多长,再长的马尔可夫链总能算出来的。

用同样的方法,也可以算出不正常的六面骰和另外两个正常骰子掷出这段序列的概率,然后我们比较一下这两个概率大小,就能知道你的骰子是不是被人换了。


小结

  • 隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。
  • 常见术语
    • 可见状态链
    • 隐含状态链
    • 转换概率
    • 输出概率

3 HMM模型基础

3.1 什么样的问题需要HMM模型

首先我们来看看什么样的问题解决可以用HMM模型。使用HMM模型时我们的问题一般有这两个特征:

  • 1)我们的问题是基于序列的,比如时间序列,或者状态序列。
  • 2)我们的问题中有两类数据,
    • 一类序列数据是可以观测到的,即观测序列
    • 而另一类数据是不能观察到的,即隐藏状态序列,简称状态序列

有了这两个特征,那么这个问题一般可以用HMM模型来尝试解决。这样的问题在实际生活中是很多的。

  • 比如:我现在给大家写课件,我在键盘上敲出来的一系列字符就是观测序列,而我实际想写的一段话就是隐藏状态序列,输入法的任务就是从敲入的一系列字符尽可能的猜测我要写的一段话,并把最可能的词语放在最前面让我选择,这就可以看做一个HMM模型了。

  • 再举一个,假如我上课讲课,我发出的一串连续的声音就是观测序列,而我实际要表达的一段话就是隐藏状态序列,你大脑的任务,就是从这一串连续的声音中判断出我最可能要表达的话的内容。

从这些例子中,我们可以发现,HMM模型可以无处不在。但是上面的描述还不精确,下面我们用精确的数学符号来表述我们的HMM模型。

3.2 HMM模型的定义

HMM模型做了两个很重要的假设如下:

1) 齐次马尔科夫链假设。

2) 观测独立性假设。

3.3 一个HMM模型实例

下面我们用一个简单的实例来描述上面抽象出的HMM模型。这是一个盒子与球的模型。

案例来源于李航-《统计学习方法》。

假设我们有3个盒子,每个盒子里都有红色和白色两种球,这三个盒子里球的数量分别是:

盒子 1 2 3
红球数 5 4 7
白球数 5 6 3

按照下面的方法从盒子里抽球,开始的时候,

  • 从第一个盒子抽球的概率是0.2,
  • 从第二个盒子抽球的概率是0.4,
  • 从第三个盒子抽球的概率是0.4。

以这个概率抽一次球后,将球放回。

然后从当前盒子转移到下一个盒子进行抽球。规则是:

  • 如果当前抽球的盒子是第一个盒子,则以0.5的概率仍然留在第一个盒子继续抽球,以0.2的概率去第二个盒子抽球,以0.3的概率去第三个盒子抽球。
  • 如果当前抽球的盒子是第二个盒子,则以0.5的概率仍然留在第二个盒子继续抽球,以0.3的概率去第一个盒子抽球,以0.2的概率去第三个盒子抽球。
  • 如果当前抽球的盒子是第三个盒子,则以0.5的概率仍然留在第三个盒子继续抽球,以0.2的概率去第一个盒子抽球,以0.3的概率去第二个盒子抽球。

3.4 HMM观测序列的生成

从上面的例子,我们也可以抽象出HMM观测序列生成的过程。

  • 输入的是HMM的模型 λ=(A,B,Π) ,观测序列的长度T
  • 输出是观测序列:image-20200609232428037

生成的过程如下:

  • 1)根据初始状态概率分布 Π 生成隐藏状态i1
    1. for t from 1 to T
    • a. 按照隐藏状态it的观测状态分布bit(k)生成观察状态ot
    • b. 按照隐藏状态it的状态转移概率分布ait, it+1产生隐藏状态it+1

所有的ot一起形成观测序列image-20200609232440292

3.5 HMM模型的三个基本问题

HMM模型一共有三个经典的问题需要解决:

1)评估观察序列概率 —— 前向后向的概率计算

  • 即给定模型 λ=(A,B,Π) 和观测序列image-20200609232510322,计算在模型 λ下某一个观测序列O出现的概率P(O|λ )。
  • 这个问题的求解需要用到前向后向算法,是HMM模型三个问题中最简单的。

2)预测问题,也称为解码问题 ——维特比(Viterbi)算法

  • 即给定模型λ=(A,B,Π) 和观测序列image-20200609232510322,求给定观测序列条件下,最可能出现的对应的状态序列。
  • 这个问题的求解需要用到基于动态规划的维特比算法,是HMM模型三个问题中复杂度居中的算法。

3)模型参数学习问题 —— 鲍姆-韦尔奇(Baum-Welch)算法(状态未知) ,这是一个学习问题

  • 即给定观测序列image-20200609232510322,估计模型 λ=(A,B,Π) 的参数,使该模型下观测序列的条件概率P(O|λ )最大。
  • 这个问题的求解需要用到基于EM算法的鲍姆-韦尔奇算法,是HMM模型三个问题中最复杂的。

接下来的三节,我们将基于这个三个问题展开讨论。


小结

  • 什么样的问题可以用HMM模型解决
    • 基于序列的,比如时间序列;
    • 问题中包含两类数据,一类是可以观测到的观测序列;另一类是不能观察到的隐藏状态序列。
  • HMM模型的两个重要假设
    • 其次马尔科夫链假设
    • 观测独立性假设
  • HMM模型的三个基本问题
    • 评估观察序列概率—— 前向后向的概率计算
    • 预测问题,也称为解码问题 ——维特比(Viterbi)算法
    • 模型参数学习问题 —— 鲍姆-韦尔奇(Baum-Welch)算法

4 前向后向算法评估观察序列概率

4.1 回顾HMM问题一:求观测序列的概率

首先我们回顾下HMM模型的问题一。这个问题是这样的。

我们已知HMM模型的参数λ=(A,B,Π)。

其中A是隐藏状态转移概率的矩阵,

B是观测状态生成概率的矩阵,

Π是隐藏状态的初始概率分布。

同时我们也已经得到了观测序列image-20200609232851319,

现在我们要求观测序列O在模型λ 下出现的条件概率P(O|λ)。

乍一看,这个问题很简单。因为我们知道所有的隐藏状态之间的转移概率和所有从隐藏状态到观测状态生成概率,那么我们是可以暴力求解的。

我们可以列举出所有可能出现的长度为T的隐藏序列image-20200609233037476,分别求出这些隐藏序列与观测序列的image-20200609232851319联合概率分布P(O,i|λ),这样我们就可以很容易的求出边缘分布了P(O|λ)。


具体暴力求解的方法是这样的:

  • 首先,任意隐藏序列image-20200609233100760

  • 出现的概率是:image-20200609233147981

  • 对于固定的状态序列image-20200609233100760,我们要求的观察序列image-20200609232851319出现的概率是:P(O|i,\lambda )=b_{i1}(o_1)b_{i2}(o_2)…b_{iT}(o_T)P(Oi,λ)=b**i1(o1)b**i2(o2)…biT(o**T)

  • 则O和i联合出现的概率是:image-20191211105629553

  • 然后求边缘概率分布,即可得到观测序列O在模型λ 下出现的条件概率P(O|λ )P(O|λ ):

image-20191211105559358

虽然上述方法有效,但是如果我们的隐藏状态数N非常多的那就麻烦了,此时我们预测状态有NT种组合,算法的时间复杂度是O(TNT)阶的。

因此对于一些隐藏状态数极少的模型,我们可以用暴力求解法来得到观测序列出现的概率,但是如果隐藏状态多,则上述算法太耗时,我们需要寻找其他简洁的算法。

前向后向算法就是来帮助我们在较低的时间复杂度情况下求解这个问题的。

你可能感兴趣的:(machinelearning,机器学习,人工智能,python)