《统计学习方法》笔记(9):EM算法和隐马尔科夫模型

EM也称期望极大算法(Expectation Maximization),是一种用来对含有隐含变量的概率模型进行极大似然估计的迭代算法。该算法可应用于隐马尔科夫模型的参数估计。

 

1、含有隐含参数的概率模型举例?

三硬币模型:A、B、C三枚硬币,这些硬币投出正面的概率分别为π、p、q。进行如下硬币实验,先投硬币A,如果为正面则投硬币B,如果为反面则投硬币C。最终出现的正面则记为1,出现反面则记为0;独立的重复n次实验(取n=10),出现的结果如下:

{1,1,0,1,0,1,0,1,1}

假设只能观测到投掷硬币的结果,无法观测其过程,请估计三个硬币正面出现的概率。

解释:该模型中A硬币投掷结果记为隐含变量,该模型的参数为π、p和q,即模型可以记为θ=(π,p,q)。

 

2、EM算法的一般步骤?

以下四步中,关键的是第二步确定Q函数:

1)选择参数初值θ

2)E步:确定Q函数,Q=ΣlogP(Y,Z|θ)log(Z|Y,θi)

3)M步:估计使得Q函数最大θ值,作为θ(i+1)

4)重复迭代,直到参数θ收敛。

 

3、EM算法的特点?

1)EM算法对初始值敏感,初值不同可能导致算得的结果不同。

2)可以保证参数估计序列收敛到对数似然函数序列的稳定点,不能保证收敛到极大值点。

 

4、什么是隐马尔科夫模型?

隐马尔科夫模型是关于时序的概率模型,描述的是由隐藏的马尔科夫链生成不可观测的状态序列,再根据状态序列生成对应观测序列的过程。

 

5、隐马尔科夫模型可求解的三类问题?

1)概率估计问题,已知观测序列O,计算在模型λ=(A,B,π)下O出现的概率P(O|λ)。

2)学习问题,已知观测序列O,用EM算法求解使得P(O|λ)最大的模型参数λ。

3)预测问题,已知观测序列O,预测使得P(O|I)最大的状态序列I。

你可能感兴趣的:(数据挖掘)