lda:变分的推导

lda,latent diriclet allocation,是一个最基本的bayesian模型。本文要研究lda基于变分的推导方法。意义是重大的。

一、符号的定义

NewImage: the number of topics
NewImage : the number of documents
NewImage : the number of terms in vocabulary
NewImage : index topic
NewImage : index document
NewImage : index word
NewImage : denote a word

in LDA:
NewImage: model parameter
NewImage : model parameter
NewImage ,NewImage: hidden variables.

图模型:
NewImage引入variational parameter:
NewImage : Dirichlet parameter
NewImage : Multinomial parameter

我们引入variational distribution,a fully factorized model

NewImage NewImage要注意的是,NewImage 是后验分布,我们隐去了given NewImage 

二、总论

我们使用了variational EM algorithm:
在E step,我们使用variational approximation to posterior来最优化variational parameters,找到最靠谱的后验分布。
在M step,我们提升lower bound with respect to the model parameters。

具体算法:
E-step: 对于每一个文档,find optimal values of the variational parameters

NewImage

 M-step:maximize the lower bound with respect to the model parameters NewImage and NewImage

三、lower bound

3.1 Jensens inequality

有随机变量NewImage,对于convex的NewImage,有NewImage ;
对于concave的NewImage,有NewImage;

3.2 推导lower bound

for each document each word

NewImage 

 

你可能感兴趣的:(a)