文本挖掘第三周

一 概率主题模型

1.1 混合语言模型

如何摆脱背景词(数据中频率高)——常见词不应用分布解释

背景主题模型:生成常用词汇

文本挖掘第三周_第1张图片

使用另个分布:需决定产生词时用哪一个分布

计算一个词概率:两种情况的总和


问题:是如何区分词在哪一个分布的?词在每个分布的概率是如何计算的?


文本挖掘第三周_第2张图片

1.2 d中词的概率

假设背景词已知,如何调整θd来让已观测到的高频词概率达到最大


文本挖掘第三周_第3张图片


文本挖掘第三周_第4张图片

当已知背景词模型时,B中词的概率高,d中词的概率就小了。、

1.3在文档中添加更多的背景词


文本挖掘第三周_第5张图片

        一个词出现得越多,那么这个词在d中的概率越高,对整体影响越大。

        而如果提高p(thetaB),那么提高d中的P的作用就不大了。即词出现的P还是受到p(thetaB)概率的规范影响的。

总结:

        将高概率分配给数据中高频率的词汇。这是协作最大化可能性。其次,不同的组件模型倾向于在不同的词上下注高概率。这是为了避免竞争或浪费概率。这将使他们能够更有效地合作,最大限度地发挥作用。

1.4 期望最大化算法(EM)


文本挖掘第三周_第6张图片


文本挖掘第三周_第7张图片


文本挖掘第三周_第8张图片

Z=0:单词来自于d。    Z=1:单词来自于背景B


文本挖掘第三周_第9张图片

EM操作:

给所有参数(一个词的概率)分配随机数。

在θd的情况下,来猜测这些词的z值(E)

在z值确定后,把相同分布的词分到同一组,利用正态计数来预测概率,修正参数(M)

文本挖掘第三周_第10张图片

    EM将趋于局部最大值

爬坡演算法


文本挖掘第三周_第11张图片

计算下限,不直接计算似然函数(E)

最大化下限,使得我们能将参数移动到一个新的位置(M)

最终确保得到局部最大值



二:概率潜在语义分析(PLSA)

2.1简要介绍


输入:集合、主题数量、一个词汇集。

输出:主题类别,特征描述



文本挖掘第三周_第12张图片



文本挖掘第三周_第13张图片


有约束的优化问题:

(1)词分布和为1       (2)话题覆盖的分布和为1


2.2 通过EM计算最大估计


文本挖掘第三周_第14张图片

z:隐藏变量(话题指标)


文本挖掘第三周_第15张图片

在(E)中:预测单词属于哪一类。从每个分布观察这个词的概率。

在(M)中:通过计算得到真实的估计。可以在所有的主题之间进行归一化以得到pi的重新估计,覆盖面。或者我们可以根据所有单词重新规范化。

文本挖掘第三周_第16张图片



三:隐含利克雷分布(LDA)

3.1.先验知识扩展PLSA(监督)

标准PLSA:完全基于数据做最大似然估计

用户“检索模型”作为主题,对特定概念感兴趣


文本挖掘第三周_第17张图片

p(^)即为先验知识


文本挖掘第三周_第18张图片

伪计数:用先验知识中的词概率定义

增加伪计数,构成γ分布

μ反应先验知识的强度(0,不考虑先验知识。无穷大—背景语言模型)

3.2.将PLSA扩展为生成模型(LDA)

LDA是PLSA的贝叶斯版本

LDA不允许释放链条,强制其从另一个分配中抽取。将分别从两个Dirichlet分布中抽取,但​​是狄利克雷分布是向量的分布。所以它给了我们一个向量四个特定选择的概率。


文本挖掘第三周_第19张图片

对比差异:

文本挖掘第三周_第20张图片

LDA的最大似然估计;

文本挖掘第三周_第21张图片

名称,主题,和覆盖范围不再是LDA中的参数,要使用基本的推论或后验推断来根据α和β的参数来计算它们。


文本挖掘第三周_第22张图片


文本挖掘第三周_第23张图片


文本挖掘第三周_第24张图片

你可能感兴趣的:(文本挖掘第三周)