EM(Expectation-Maximization)算法的浅显理解

EM算法

在统计计算中,最大期望(EM)算法是在概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于(存在)无法观测的隐藏变量(Latent Variable)

E步;估计隐含变量
M步:估计其他参数
交替迭代以上两步,将似然函数的极值推向最大。


以下两篇博客写的比较好:
http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html
http://blog.csdn.net/zouxy09/article/details/8537620

补充:参数估计法里面的最大似然估计法的理解
执果索因。在里面有个理论就是,抽取一次样本,则抽到的这个样本发生的概率为最大。现在抽取N个样本,就认为这N个样本是在总体中发生概率最大的。把这些概率乘起来就是似然函数。假设我们知道这些样本是符合某个均值和方差的正态分布。现在要做的就是求得这个使得似然函数的值达到最大的均值和方差。求函数的极大值的方法,先求导,把导数置为0,就可以求得均值和方差的估计值。

你可能感兴趣的:(Machine,learning)