先引入一个知乎上看到的例子:
假设你的手中有三个不同的骰子。
第一个是我们平常都能见到的骰子(称其为D6),6个面,每个面(1,2,3,4,5,6)出现的概率是1/6;
第二个有4个面(称其为D4),每个面(1,2,3,4)出现的概率是1/4;
第三个有8个面(称其为D8),每个面(1,2,3,4,5,6,7,8)出现的概率是1/8。
现在你要开始掷骰子了。
先从三个骰子里挑一个,挑到每一个骰子的概率都是1/3。
接着掷骰子,得到1,2,3,4,5,6,7,8中的一个点数。
你不停地重复上述过程,会得到一串数字,每个数字都是1,2,3,4,5,6,7,8中的一个。例如你得到了这么一串数字(掷了10次):1 6 3 5 2 7 3 5 2 4
这串掷出的骰子点数叫做可见状态链。但是在隐马尔可夫模型中,我们不仅仅有这么一串可见状态链,还有一串隐含状态链。
在这个例子里,这串隐含状态链就是你用的骰子的序列,比如隐含状态链有可能是:D6 D8 D8 D6 D4 D8 D6 D6 D4 D8
一般来说,HMM中说到的马尔可夫链是指隐含状态链,因为隐含状态(骰子)之间存在转换概率(transition probability)。
在上面的例子中,D6的下一个状态是D4,D6,D8的概率都是1/3。D4,D8的下一个状态是D4,D6,D8的转换概率也都一样是1/3。你可以更改转换概率,那就是新的HMM了。
尽管可见状态之间没有转换概率,但是隐含状态和可见状态之间有一个概率叫做输出概率(emission probability)。
上面的例子中,六面骰(D6)产生1的输出概率是1/6。产生2,3,4,5,6的概率也都是1/6。
而最开始抽到骰子的概率,则是初始状态概率。这里初始抽到三种骰子的概率分别都为1/3.
而我们学习HMM模型,是因为当一个系统可以作为HMM被描述,那么我们就能解决以下三种问题
1)预测问题:你知道了骰子有几种(隐含状态数量),每种骰子是什么(转换概率),骰子掷出的结果(可见状态链),但你想知道每次掷出来的都是哪种骰子(隐含状态链)。
也叫做解码问题。
2)概率计算问题:你知道了骰子有几种(隐含状态数量),每种骰子是什么(转换概率),骰子掷出的结果(可见状态链),但你想知道掷出这个结果的概率。
这个问题看似意义不大,但这个问题可以帮你验证观察到的结果和已知的模型是否吻合;因为如果很多次结果都对应了比较小的概率,那么就说明你已知的模型很有可能是错的,有人偷偷把你的骰子給换了。
3)学习问题:你知道了骰子有几种(隐含状态数量),观测到了很多次掷骰子的结果(可见状态链),但你想反推出每种骰子是什么(转换概率)。
这个问题很重要,因为这是最常见的情况。很多时候我们只有可见结果,不知道HMM模型里的参数,我们需要从可见结果估计出这些参数,这是建模的一个必要步骤。
接下来要介绍上述三个问题的解决算法,所以需要一些符号来定义问题。
隐马尔科夫模型可以用三元符号表示
我们定义
A 是隐含状态转换概率矩阵, A=[aij]N×N ;
aij 是时刻t处于状态 qi 的条件下在时刻 t+1 转移到状态 qj 的概率, aij=P(it+1=qj|it=qi) , i=1,2,…,N; j=1,2,…,N;
B 是可见状态生成概率矩阵, B=[bj(k)]N×M ;
bj(k) 是在时刻t处于状态 qj 的条件下生成可见状态 vk 的概率, bj(k)=P(ot=vk|it=qj),k=1,2,...,M;j=1,2,...,N ;
π 是初始状态概率向量, π=(πi) ;
πi 是时刻 t=1 处于状态 qi 的概率, πi=P(i1=qi),i=1,2,...,N ;
Q 是所有隐含状态的集合, Q={q1,q2,...,qN} , N是隐含状态数目;
V 是所有可见状态的集合, V={v1,v2,...,vM} , M是可见状态数目;
I 是长度为T的隐含状态序列;
O 是对应的可见状态序列;
从上面的定义可以看出,隐马尔科夫模型存在2个假设
本篇帖子整理自
《如何用简单易懂的例子解释隐马尔可夫模型?》
《HMM学习最佳范例四:隐马尔科夫模型》
《统计学习算法》