自然语言处理——语言模型(二)

引言

本文主要介绍N-Gram语言模型相关知识。

N-Gram

从上篇文章,我们知道。基于马尔科夫假设,假设当前词出现的概率只依赖于前 n − 1 n-1 n1个词,我们能定义N-Gram模型如下:

P ( w i ∣ w 1 w 2 ⋯ w i − 1 ) ≈ P ( w i ∣ w i − ( n − 1 ) ⋯ w i − 1 ) P(w_i|w_1w_2 \cdots w_{i-1}) \approx P(w_i|w_{i-(n-1)} \cdots w_{i-1}) P(wiw1w2wi1)P(wiwi(n1)wi1)

其中最简单的情况是 n = 1 n=1 n=1时的Unigram模型,和 n = 2 n=2 n=2时的Bigram模型。

n = 1 n=1 n=1 (Unigram,假设每个单词都是独立的):
P ( w 1 w 2 ⋯ w n ) ≈ ∏ i n P ( w i ) P(w_1w_2 \cdots w_n) \approx \prod_i^n P(w_i) P(w1w2wn)inP(wi)

n = 2 n=2 n=2 (Bigram,只依赖前面一个词):
P ( w 1 w 2 ⋯ w n ) ≈ ∏ i n P ( w i ∣ w i − 1 ) P(w_1w_2 \cdots w_n) \approx \prod_i^n P(w_i|w_{i-1}) P(w1w2wn)inP(wiwi1)

我们来看下Unigram是如何计算下面两句话的概率的。
p ( 今 天 , 是 , 春 节 , 我 们 , 都 , 休 息 ) = p ( 今 天 ) ⋅ p ( 是 ) ⋅ p ( 春 节 ) ⋅ p ( 我 们 ) ⋅ p ( 都 ) ⋅ p ( 休 息 ) p ( 今 天 , 春 节 , 是 , 都 , 我 们 , 休 息 ) = p ( 今 天 ) ⋅ p ( 春 节 ) ⋅ p ( 是 ) ⋅ p ( 都 ) ⋅ p ( 我 们 ) ⋅ p ( 休 息 ) p(今天,是,春节,我们,都,休息) = p(今天)\cdot p(是) \cdot p(春节) \cdot p(我们) \cdot p(都) \cdot p(休息) \\ p(今天,春节,是,都,我们,休息) = p(今天)\cdot p(春节) \cdot p(是) \cdot p(都) \cdot p(我们) \cdot p(休息) p(,,,,,)=p()p()p()p()p()p()p(,,,,,)=p()p()p()p()p()p()

我们知道这两句话中“今天春节是都我们休息”是不通顺的,我们希望语言模型能给这句话一个很低的概率。
但在Unigram模型下,可以看出这两句话的概率是相等的。这就是Unigram模型不考虑单词顺序(单词独立)的弊端。

那Bigram模型呢,
p ( 今 天 , 是 , 春 节 , 我 们 , 都 , 休 息 ) = p ( 今 天 ) ⋅ p ( 是 ∣ 今 天 ) ⋅ p ( 春 节 ∣ 是 ) ⋅ p ( 我 们 ∣ 春 节 ) ⋅ p ( 都 ∣ 我 们 ) ⋅ p ( 休 息 ∣ 都 ) p ( 今 天 , 春 节 , 是 , 都 , 我 们 , 休 息 ) = p ( 今 天 ) ⋅ p ( 春 节 ∣ 今 天 ) ⋅ p ( 是 ∣ 春 节 ) ⋅ p ( 都 ∣ 是 ) ⋅ p ( 我 们 ∣ 都 ) ⋅ p ( 休 息 ∣ 我 们 ) p(今天,是,春节,我们,都,休息) = p(今天)\cdot p(是|今天) \cdot p(春节|是) \cdot p(我们|春节) \cdot p(都|我们) \cdot p(休息|都) \\ p(今天,春节,是,都,我们,休息) = p(今天)\cdot p(春节|今天) \cdot p(是|春节) \cdot p(都|是) \cdot p(我们|都) \cdot p(休息|我们) p(,,,,,)=p()p()p()p()p()p()p(,,,,,)=p()p()p()p()p()p()

从这里可以看出来,由于Bigram模型考虑了前一个单词,这里可以很容易看出来第一句话是优于第二句话的。比如“今天是”比“今天春节”更加常见(通顺),“我们都”比“都我们”更加常见。

那Bigram只考虑了前面一个单词就能得到更好的结果,如果我们多考虑前面几个单词呢。这就是N-Gram模型。
有一点是肯定的,考虑前面单词越多,能得到的效果越好。那是不是真的越多越好呢。

自然语言处理——语言模型(二)_第1张图片
上面是假设词典中的单词个数为20000个时,所有可能的n-gram的个数。当 n = 2 n=2 n=2时,我们可以接受,甚至说 n = 3 n=3 n=3时也可以接受,但如果 n > 3 n>3 n>3的时候,这个数量我们就不能接受了。

所以考虑到时间空间的开销之后,一般 n = 1 , 2 , 3 n=1,2,3 n=1,2,3就够了。

估计语言模型的概率

自然语言处理——语言模型(二)_第2张图片
在上一篇文章中,我们假设已经知道这些概率。这些概率就是语言模型的概率,本节来探讨一下如何估计语言模型的概率。

Unigram

首先来看下Unigram模型,

P ( w 1 w 2 ⋯ w n ) ≈ ∏ i n P ( w i ) P(w_1w_2 \cdots w_n) \approx \prod_i^n P(w_i) P(w1w2wn)inP(wi)

在Unigram模型中,我们只要计算 p ( w i )   i = 1 , 2 , ⋯   , n p(w_i) \, i=1,2,\cdots,n p(wi)i=1,2,,n的概率。即只要计算每个单词的概率,就是用语料库中每个单词出现的次数除以语料库的单词总数。

自然语言处理——语言模型(二)_第3张图片
假设这是我们的语料库,其中我们出现了100次,记为 C ( 我 们 ) = 100 C(我们)=100 C()=100,而单词总数 V = 100000 V=100000 V=100000

那么 p ( 我 们 ) = 100 100000 = 0.001 p(我们) = \frac{100}{100000} = 0.001 p()=100000100=0.001

下面来看一个简单的例子,假设语料库中的单词如下:
自然语言处理——语言模型(二)_第4张图片
现在想要评估“今天/开始/训练营/课程”和“今天/没有/训练营/课程”这两句话的概率。

p ( 今 天 , 开 始 , 训 练 营 , 课 程 ) = p ( 今 天 ) ⋅ p ( 开 始 ) ⋅ p ( 训 练 营 ) ⋅ p ( 课 程 ) p(今天,开始,训练营,课程) = p(今天) \cdot p(开始) \cdot p(训练营) \cdot p(课程) p(,,,)=p()p()p()p()

我们分别来计算上面每个单词的概率,首先统计语料库中单词总数 V = 19 V=19 V=19 C ( 今 天 ) = 2 C(今天)=2 C()=2,所以 p ( 今 天 ) = 2 19 p(今天)=\frac{2}{19} p()=192

同理可以计算出每个单词的概率。
p ( 今 天 , 开 始 , 训 练 营 , 课 程 ) = p ( 今 天 ) ⋅ p ( 开 始 ) ⋅ p ( 训 练 营 ) ⋅ p ( 课 程 ) = 2 19 × 1 19 × 1 19 × 1 19 = 2 1 9 4 \begin{aligned} p(今天,开始,训练营,课程) &= p(今天) \cdot p(开始) \cdot p(训练营) \cdot p(课程) \\ &= \frac{2}{19} \times \frac{1}{19} \times \frac{1}{19} \times \frac{1}{19} = \frac{2}{19^4} \end{aligned} p(,,,)=p()p()p()p()=192×191×191×191=1942

下面看第二个句子“今天/没有/训练营/课程”的概率。
p ( 今 天 , 没 有 , 训 练 营 , 课 程 ) = p ( 今 天 ) ⋅ p ( 没 有 ) ⋅ p ( 训 练 营 ) ⋅ p ( 课 程 ) = 2 19 × 0 19 × 1 19 × 1 19 = 0 \begin{aligned} p(今天,没有,训练营,课程) &= p(今天) \cdot p(没有) \cdot p(训练营) \cdot p(课程) \\ &= \frac{2}{19} \times \frac{0}{19} \times \frac{1}{19} \times \frac{1}{19} = 0 \end{aligned} p(,,,)=p()p()p()p()=192×190×191×191=0

因为单词“没有”未出现在语料库中,导致它的概率为零,最终让整个句子的概率为零。
这个句子显然是合理的,但是其概率为零是不合理的。

为零弥补这样的缺点,我们需要采用平滑的方法,就是在分母和分子上增加一个项,使得不会出现概率为零的情况。这个我们后面会讲。

Bigram

上面是Unigram的情况,那Bigram模型要怎么估计概率呢。

P ( w 1 w 2 ⋯ w n ) ≈ ∏ i n P ( w i ∣ w i − 1 ) P(w_1w_2 \cdots w_n) \approx \prod_i^n P(w_i|w_{i-1}) P(w1w2wn)inP(wiwi1)

假设我们要计算 p ( 是 ∣ 明 天 ) p(是|明天) p(),要怎么计算呢。
自然语言处理——语言模型(二)_第5张图片
假设我们有个这样的语料库,其中“明天”出现了5次,其中有2次是“明天”后面接“是”的。

那么 P ( 是 ∣ 明 天 ) = 2 5 P(是|明天) = \frac{2}{5} P()=52,就是“明天”后面出现“是”的次数 除以 “明天”出现的次数。
同理可以计算出 P ( 我 们 ∣ 明 天 ) = 1 5 , P ( 天 气 ∣ 明 天 ) = 1 5 , P ( 上 课 ∣ 明 天 ) = 1 5 P(我们|明天)=\frac{1}{5},P(天气|明天)=\frac{1}{5},P(上课|明天)=\frac{1}{5} P()=51,P()=51,P()=51

下面也用一个具体的例子来阐述。
自然语言处理——语言模型(二)_第6张图片
我们有一个这样的语料库,要计算“今天/上午/想/出去/运动”和“今天/上午/的/天气/很好/呢”。

首先看第一句话。
p ( 今 天 , 上 午 , 想 , 出 去 , 运 动 ) = p ( 今 天 ) ⋅ p ( 上 午 ∣ 今 天 ) ⋅ p ( 想 ∣ 上 午 ) ⋅ p ( 出 去 ∣ 想 ) ⋅ p ( 运 动 ∣ 出 去 ) p(今天,上午,想,出去,运动) = p(今天) \cdot p(上午|今天) \cdot p(想|上午) \cdot p(出去|想) \cdot p(运动|出去) p(,,,,)=p()p()p()p()p()

可以看到,虽然是Bigram模型,其中也出现了单词单词的情况 p ( 今 天 ) p(今天) p(),这个概率就要使用类似Unigram的情况来计算。

语料库中单词总数 V = 19 V=19 V=19,“今天”出现的次数 C ( 今 天 ) = 2 C(今天)=2 C()=2,因此 p ( 今 天 ) = 2 19 p(今天)=\frac{2}{19} p()=192

下面重点来看下 p ( 上 午 ∣ 今 天 ) p(上午|今天) p(),已经知道 C ( 今 天 ) = 2 C(今天)=2 C()=2,“今天”后面出现“上午”的次数有1次。
自然语言处理——语言模型(二)_第7张图片
所以 p ( 上 午 ∣ 今 天 ) = 1 2 p(上午|今天) = \frac{1}{2} p()=21

因此
p ( 今 天 , 上 午 , 想 , 出 去 , 运 动 ) = p ( 今 天 ) ⋅ p ( 上 午 ∣ 今 天 ) ⋅ p ( 想 ∣ 上 午 ) ⋅ p ( 出 去 ∣ 想 ) ⋅ p ( 运 动 ∣ 出 去 ) = 2 19 × 1 2 × 1 1 × 1 2 × 1 1 = 1 38 \begin{aligned} p(今天,上午,想,出去,运动) &= p(今天) \cdot p(上午|今天) \cdot p(想|上午) \cdot p(出去|想) \cdot p(运动|出去) \\ &= \frac{2}{19} \times \frac{1}{2} \times \frac{1}{1} \times \frac{1}{2} \times \frac{1}{1} \\ &= \frac{1}{38} \end{aligned} p(,,,,)=p()p()p()p()p()=192×21×11×21×11=381

那“今天/上午/的/天气/很好/呢”呢
p ( 今 天 , 上 午 , 的 , 天 气 , 很 好 , 呢 ) = p ( 今 天 ) ⋅ p ( 上 午 ∣ 今 天 ) ⋅ p ( 的 ∣ 上 午 ) ⋅ p ( 天 气 ∣ 的 ) ⋅ p ( 很 好 ∣ 天 气 ) ⋅ p ( 呢 ∣ 很 好 ) = 2 19 × 1 2 × 0 × 1 1 × 1 1 × 0 = 0 \begin{aligned} p(今天,上午,的,天气,很好,呢) &= p(今天) \cdot p(上午|今天) \cdot p(的|上午) \cdot p(天气|的) \cdot p(很好|天气) \cdot p(呢|很好) \\ &= \frac{2}{19} \times \frac{1}{2} \times 0 \times \frac{1}{1} \times \frac{1}{1} \times 0\\ &= 0 \end{aligned} p(,,,,,)=p()p()p()p()p()p()=192×21×0×11×11×0=0

可以看到,由于“上午”后面没有出现“的”和“很好”后面没有出现“呢”,也存在概率为零的问题。

上面介绍了 n = 1 , 2 n=1,2 n=1,2的情况, n > 2 n>2 n>2也是可以用同样的方法来做。

本篇文章就到这里,下篇文章将会介绍如何评估语言模型的好坏以及如何使用平滑来避免出现概率为零的情况。

参考

  1. 贪心学院课程

你可能感兴趣的:(人工智能,读书笔记)