EM算法入门相关文章翻译与总结-3

stanford的NLP课件是一个比较好的总结这里记录下。http://www.stanford.edu/class/cs224n/handouts/fsnlp-em-slides.pdf

MLE

 

image

 

image

image 又一个不同的应用场景,但是可以看出基本都是mixture…

image

image 引入hidden variable让计算变的容易,因为确定了具体哪个part model产生

image

image

image   这个推导看前面的总结

image  关键词image image

 

下面是这个课件独有的,EM made easy

其实作者也是想证明Qfunction怎么获得的,思路和总结2中殊途同归,不过没有用log直接用概率*,利用artithmetic means >= geometric means

image

image  如果再取log形式就一样了

你可能感兴趣的:(算法)