NMF的应用-读Daniel D.Lee nature上的论文总结-Learning the parts of objects by non-negative matrix factorization

 

Learning the parts of objects by non-negative matrix factorization

 

 

 

由于NMF使用非负矩阵来分解原有矩阵(V=WH),因此,在分解时,只会进行“加”操作数据,不会进行减操作,因此在进行因式分解时。W可以当做提取出来的各个相关度不大的特征,也就是其中所说的Basis images和whole faces,而H可以表示编码encoding。

 

正是因为矩阵为非负的,因此它能够实现parts-based representation。

 

编码(encoding)(H)表示一张脸(图片)(V),可以表示成Basis images(W)的线性组合。

 

W为n*r的,H为r*m的,V为n*m的。

其中r的取值应符合(n+m)<nm。

 

NMF用于文本语义分析(semantic analysis of text documents):

 

文档集合用矩阵V表示,Viu表示第 个文档,词 出现的次数。

 

使用NMF获得W矩阵和F矩阵。

 

在试验中,使用m=30,991个文档和n=15,276个词,生成Vnmr取值200。因此有Wnr,Hrm。W可以看作是语义特征。

在该文章中给出了NMF对文章的语义分析结果。NMF会自动的将描述相同事物的词放在一起,当做一个语义特征。

 

NMF能做的和不能做的(DOs & DON'Ts)

 

虽然NMF能够用于facial parts学习和语义主题分析,但是并不意味着他能从任何一个数据库中习得parts。

 

例如从不同角度拍照生成的人脸照片,或者是太复杂的事物。分析学习这些复杂模型的结构,可能需要多级的hidden variables,也就是说多级的NMF,而不是一级的NMF。

 

虽然非负的限制(non-negativity constraints)能够帮助进行parts-based representations,但是,这并不表示NMF就足够了。NMF不能够学习到各个part之间的句法关系。NMF假定各个hidden variables是非负的,但是这并不进一步表示这些parts之间是统计独立的。

 

 

你可能感兴趣的:(文档,constraints,Matrix,encoding,Semantic,variables)