点击上方,选择星标或置顶,每天给你送干货!
阅读大概需要33分钟
跟随小博主,每天进步一丢丢
机器学习算法与自然语言处理出品
@公众号原创作者 徐啸
学校 | 哈工大SCIR直博推免生
人类之所以比类人猿更“聪明”,是因为我们有语言,因此是一个人机网络,其中人类语言作为网络语言。人类语言具有 信息功能 和 社会功能 。
据估计,人类语言只有大约5000年的短暂历。语言是人类变得强大的主要原因。写作是另一件让人类变得强大的事情。它是使知识能够在空间上传送到世界各地,并在时间上传送的一种工具。
但是,相较于如今的互联网的传播速度而言,人类语言是一种缓慢的语言。然而,只需人类语言形式的几百位信息,就可以构建整个视觉场景。这就是自然语言如此迷人的原因。
How do we represent the meaning of a word?
meaning
用一个词、词组等表示的概念。
一个人想用语言、符号等来表达的想法。
表达在作品、艺术等方面的思想
理解意义的最普遍的语言方式(linguistic way) : 语言符号与语言符号的意义的转化 $$ signifier(symbol)\Leftrightarrow signified(\text{idea or thing}) \ = \textbf{denotational semantics} $$
How do we have usable meaning in a computer?
WordNet, 一个包含同义词集和上位词(“is a”关系) synonym sets and hypernyms 的列表的辞典
synonym
from nltk.corpus import wordnet as wn
poses = { 'n':'noun', 'v':'verb', 's':'adj (s)', 'a':'adj', 'r':'adv'}
for synset in wn.synsets("good"):
print("{}: {}".format(poses[synset.pos()],
", ".join([l.name() for l in synset.lemmas()])))
hypernyms
from nltk.corpus import wordnet as wn
panda = wn.synset("panda.n.01")
hyper = lambda s: s.hypernyms()
list(panda.closure(hyper))
Problems with resources like WordNet
作为一个资源很好,但忽略了细微差别
例如“proficient”被列为“good”的同义词。这只在某些上下文中是正确的。
缺少单词的新含义
难以持续更新
例如 wicked, badass, nifty, wizard, genius, ninja, bombest
主观的
需要人类劳动来创造和调整
无法计算单词相似度
Representing words as discrete symbols
在传统的自然语言处理中,我们把词语看作离散的符号: hotel, conference, motel - a localist representation。单词可以通过独热向量(one-hot vectors,只有一个1,其余均为0的稀疏向量) 。向量维度=词汇量(如500,000)。
motel=[0 0 0 0 0 0 0 0 0 0 1 0 0 0 0]hotel=[0 0 0 0 0 0 0 1 0 0 0 0 0 0 0]motel=[0 0 0 0 0 0 0 0 0 0 1 0 0 0 0]hotel=[0 0 0 0 0 0 0 1 0 0 0 0 0 0 0]
Problem with words as discrete symbols
所有向量是正交的。对于独热向量,没有关于相似性概念,并且向量维度过大。
Solutions
使用类似 WordNet 的工具中的列表,获得相似度,但会因不够完整而失败
学习在向量本身中编码相似性
Representing words by their context
Distributional semantics :一个单词的意思是由经常出现在它附近的单词给出的
“You shall know a word by the company it keeps” (J. R. Firth 1957: 11)
现代统计NLP最成功的理念之一
有点物以类聚,人以群分的感觉
当一个单词ww出现在文本中时,它的上下文是出现在其附近的一组单词(在一个固定大小的窗口中)。
使用ww的许多上下文来构建ww的表示
我们为每个单词构建一个 密集 的向量,使其与出现在相似上下文中的单词向量相似
词向量 word vectors 有时被称为词嵌入 word embeddings 或词表示 word representations
它们是分布式表示 distributed representation
Word2vec (Mikolov et al. 2013)是一个学习单词向量的 框架
IDEA:
我们有大量的文本 (corpus means 'body' in Latin. 复数为corpora)
固定词汇表中的每个单词都由一个向量表示
文本中的每个位置 tt,其中有一个中心词 cc 和上下文(“外部”)单词 oo
使用 cc 和 oo 的 词向量的相似性 来计算给定 cc 的 oo 的 概率 (反之亦然)
不断调整词向量 来最大化这个概率
下图为窗口大小 j=2j=2 时的 P(wt+j|wt)P(wt+j|wt) 计算过程,center word分别为 intointo 和 banking
对于每个位置t=1,…,T ,在大小为m的固定窗口内预测上下文单词,给定中心词 wj
其中,θ 为所有需要优化的变量
目标函数J(θ) (有时被称为代价函数或损失函数) 是(平均)负对数似然
其中log形式是方便将连乘转化为求和,负号是希望将极大化似然率转化为极小化损失函数的等价问题。
在连乘之前使用log转化为求和非常有效,特别是在做优化时log∏ixi=∑ilogxi
最小化目标函数 ⇔ 最大化预测精度
问题:如何计算 P(wt+j|wt;θ) ?
回答:对于每个单词都是用两个向量
vw 当 w 是中心词时
uw 当 w 是上下文词时
于是对于一个中心词 c 和一个上下文词 o
公式中,向量 uo 和向量 vc 进行点乘。向量之间越相似,点乘结果越大,从而归一化后得到的概率值也越大。模型的训练正是为了使得具有相似上下文的单词,具有相似的向量。
点积是计算相似性的一种简单方法,在注意力机制中常使用点积计算Score,参见我的Attention笔记
取幂使任何数都为正
点积比较o和c的相似性,点积越大则概率越大
分母:对整个词汇表进行标准化,从而给出概率分布
softmax function
将任意值 xi 映射到概率分布 pi
max :因为放大了最大的概率
soft :因为仍然为较小的 xi 赋予了一定概率
深度学习中常用
偏导数可以移进求和中,对应上方公式的最后两行的推导∂∂x∑iyi=∑i∂∂xyi
我们可以对上述结果重新排列如下,第一项是真正的上下文单词,第二项是预测的上下文单词。使用梯度下降法,模型的预测上下文将逐步接近真正的上下文。
再对 uo 进行偏微分计算,注意这里的 uo 是 uw=o 的简写,故可知
可以理解,当 P(o|c)→1 ,即通过中心词 c 我们可以正确预测上下文词 o ,此时我们不需要调整 uo ,反之,则相应调整 uo 。
关于此处的微积分知识,可以通过《神经网络与深度学习》中的 附录B 了解。
What is so special about NLP?
Natural language is a discrete/symbolic/categorical system
离散的/符号的/分类的
人类的语言有什么特别之处?人类语言是一个专门用来表达意义的系统,而不是由任何形式的物理表现产生的。在这方面上,它与视觉或任何其他机器学习任务都有很大的不同。
大多数单词只是一个语言学以外的的符号:单词是一个映射到所指(signified 想法或事物)的能指(signifier)。
例如,“rocket”一词指的是火箭的概念,因此可以引申为火箭的实例。当我们使用单词和字母来表达符号时,也会有一些例外,例如“whoompaa”的使用。最重要的是,这些语言的符号可以被 编码成几种形式:声音、手势、文字等等,然后通过连续的信号传输给大脑,大脑本身似乎也能以一种连续的方式对这些信号进行解码。人们在语言哲学和语言学方面做了大量的工作来概念化人类语言,并将词语与其参照、意义等区分开来。
Examples of tasks
自然语言处理有不同层次的任务,从语言处理到语义解释再到语篇处理。自然语言处理的目标是通过设计算法使得计算机能够“理解”语言,从而能够执行某些特定的任务。不同的任务的难度是不一样的
Easy
拼写检查 Spell Checking
关键词检索 Keyword Search
同义词查找 Finding Synonyms
Medium
解析来自网站、文档等的信息
Hard
机器翻译 Machine Translation
语义分析 Semantic Analysis
指代消解 Coreference
问答系统 Question Answering
How to represent words?
在所有的NLP任务中,第一个也是可以说是最重要的共同点是我们如何将单词表示为任何模型的输入。在这里我们不会讨论早期的自然语言处理工作是将单词视为原子符号 atomic symbols。为了让大多数的自然语言处理任务能有更好的表现,我们首先需要了解单词之间的相似和不同。有了词向量,我们可以很容易地将其编码到向量本身中。
使用词向量编码单词,N维空间足够我们编码语言的所有语义,每一维度都会编码一些我们使用语言传递的信息。简单的one-hot向量无法给出单词间的相似性,我们需要将维度 |V||V| 减少至一个低纬度的子空间,来获得稠密的词向量,获得词之间的关系。
这是一类找到词嵌入的方法(即词向量),我们首先遍历一个很大的数据集和统计词的共现计数矩阵 X,然后对矩阵 X 进行 SVD 分解得到 USVTUSVT 。然后我们使用 U 的行来作为字典中所有词的词向量。我们来讨论一下矩阵 X 的几种选择。
Word-Document Matrix
我们最初的尝试,我们猜想相关连的单词在同一个文档中会经常出现。例如,“banks”,“bonds”,“stocks”,“moneys”等等,出现在一起的概率会比较高。但是“banks”,“octopus”,“banana”,“hockey”不大可能会连续地出现。我们根据这个情况来建立一个 Word-Document 矩阵,XX 是按照以下方式构建:遍历数亿的文档和当词 ii 出现在文档 jj,我们对 XijXij 加一。这显然是一个很大的矩阵 R|V|×MR|V|×M,它的规模是和文档数量 MM 成正比关系。因此我们可以尝试更好的方法。
Window based Co-occurrence Matrix
同样的逻辑也适用于这里,但是矩阵 XX 存储单词的共现,从而成为一个关联矩阵。在此方法中,我们计算每个单词在特定大小的窗口中出现的次数。我们按照这个方法对语料库中的所有单词进行统计。
生成维度为 |V|×|V||V|×|V| 的共现矩阵XX
在 XX 上应用 SVD 从而得到 X=USVTX=USVT
选择 UU 前 kk 行 得到 kk 维的词向量
∑ki=1σi∑|V|i=1σi∑i=1kσi∑i=1|V|σi 表示第一个k维捕获的方差量
Applying SVD to the cooccurrence matrix
我们对矩阵 XX 使用 SVD,观察奇异值(矩阵 S 上对角线上元素),根据期望的捕获方差百分比截断,留下前 k 个元素:
然后取子矩阵 U1:|V|,1:kU1:|V|,1:k 作为词嵌入矩阵。这就给出了词汇表中每个词的 k 维表示
对矩阵 XX 使用SVD
通过选择前 k 个奇异向量来降低维度
这两种方法都给我们提供了足够的词向量来编码语义和句法(part of speech)信息,但伴随许多其他问题
矩阵的维度会经常发生改变(经常增加新的单词和语料库的大小会改变)。
矩阵会非常的稀疏,因为很多词不会共现。
矩阵维度一般会非常高 ≈106×106≈106×106
基于 SVD 的方法的计算复杂度很高 ( m×nm×n 矩阵的计算成本是 O(mn2)O(mn2) ),并且很难合并新单词或文档
需要在 X 上加入一些技巧处理来解决词频的极剧的不平衡
需要在 X 上加入一些技巧处理来解决词频的极剧的不平衡
然而,基于计数的方法可以有效地利用统计量
对上述讨论中存在的问题存在以下的解决方法:
忽略功能词,例如 “the”,“he”,“has” 等等。
使用 ramp window,即根据文档中单词之间的距离对共现计数进行加权
使用皮尔逊相关系数并将负计数设置为0,而不是只使用原始计数
正如我们在下一节中看到的,基于迭代的方法以一种优雅得多的方式解决了大部分上述问题。
这里我们尝试一个新的方法。我们可以尝试创建一个模型,该模型能够一次学习一个迭代,并最终能够对给定上下文的单词的概率进行编码,而不是计算和存储一些大型数据集(可能是数十亿个句子)的全局信息。
这个想法是设计一个模型,该模型的参数就是词向量。然后根据一个目标函数训练模型,在每次模型的迭代计算误差,并遵循一些更新规则,该规则具有惩罚造成错误的模型参数的作用,从而可以学习到词向量。这个方法可以追溯到 1986年,我们称这个方法为“反向传播”,模型和任务越简单,训练它的速度就越快。
基于迭代的方法一次捕获一个单词的共现情况,而不是像SVD方法那样直接捕获所有的共现计数。
已经很多人按照这个思路测试了不同的方法。[Collobert et al., 2011] 设计的模型首先将每个单词转换为向量。对每个特定的任务(命名实体识别、词性标注等等),他们不仅训练模型的参数,同时也训练单词向量,计算出了非常好的词向量的同时取得了很好的性能。
在这里,我们介绍一个非常有效的概率模型:Word2vec。Word2vec 是一个软件包实际上包含:
两个算法:continuous bag-of-words(CBOW)和 skip-gram。CBOW 是根据中心词周围的上下文单词来预测该词的词向量。skip-gram 则相反,是根据中心词预测周围上下文的词的概率分布。
两个训练方法:negative sampling 和 hierarchical softmax。Negative sampling 通过抽取负样本来定义目标,hierarchical softmax 通过使用一个有效的树结构来计算所有词的概率来定义目标。
Language Models (Unigrams, Bigrams, etc.)
首先,我们需要创建一个模型来为一系列的单词分配概率。我们从一个例子开始:
“The cat jumped over the puddle”
一个好的语言模型会给这个句子很高的概率,因为在句法和语义上这是一个完全有效的句子。相似地,句子“stock boil fish is toy”会得到一个很低的概率,因为这是一个无意义的句子。在数学上,我们可以称为对给定 n 个词的序列的概率是:
我们可以采用一元语言模型方法(Unigram model),假设单词的出现是完全独立的,从而分解概率
但是我们知道这是不大合理的,因为下一个单词是高度依赖于前面的单词序列的。如果使用上述的语言模型,可能会让一个无意义的句子具有很高的概率。所以我们让序列的概率取决于序列中的单词和其旁边的单词的成对概率。我们称之为 bigram 模型:
但是,这个方法还是有点简单,因为我们只关心一对邻近的单词,而不是针对整个句子来考虑。但是我们将看到,这个方法会有显著的提升。考虑在词-词共现矩阵中,共现窗口为 1,我们基本上能得到这样的成对的概率。但是,这又需要计算和存储大量数据集的全局信息。
既然我们已经理解了如何考虑具有概率的单词序列,那么让我们观察一些能够学习这些概率的示例模型。
Continuous Bag of Words Model (CBOW)
这一方法是把 {"The","cat","over","the","puddle"} 作为上下文,希望从这些词中能够预测或者生成中心词“jumped”。这样的模型我们称之为 continuous bag-of-words(CBOW)模型。
它是从上下文中预测中心词的方法,在这个模型中的每个单词,我们希望学习两个向量
vv (输入向量) 当词在上下文中
uu (输出向量) 当词是中心词
首先我们设定已知参数。令我们模型的已知参数是 one-hot 形式的词向量表示。输入的 one-hot 向量或者上下文我们用 x(c)x(c) 表示,输出用 y(c)y(c) 表示。在 CBOW 模型中,因为我们只有一个输出,因此我们把 y 称为是已知中心词的的 one-hot 向量。现在让我们定义模型的未知参数。
首先我们对 CBOW 模型作出以下定义
wiwi :词汇表 VV 中的单词 ii
V∈Rn×|V|V∈Rn×|V| :输入词矩阵
vi:Vvi:V 的第 i 列,单词 wiwi 的输入向量表示
U∈R|V|×nU∈R|V|×n :输出词矩阵
ui:Uui:U 的第 i 行,单词 wiwi 的输出向量表示
我们创建两个矩阵,V∈Rn×|V|V∈Rn×|V| 和 U∈R|V|×nU∈R|V|×n 。其中 n 是嵌入空间的任意维度大小。 VV 是输入词矩阵,使得当其为模型的输入时,VV 的第 i 列是词 wiwi 的 n 维嵌入向量。我们定义这个 n×1n×1 的向量为 vivi 。相似地, UU 是输出词矩阵。当其为模型的输入时, UU 的第 j 行是词 wjwj 的 n 维嵌入向量。我们定义 UU 的这行为 ujuj 。注意实际上对每个词 wiwi 我们需要学习两个词向量(即输入词向量 vivi 和输出词向量 uiui )。
我们将这个模型分解为以下步骤
我们为大小为 m 的输入上下文,生成 one-hot 词向量 <span><spanclass="MathJaxPreview">(x(c−m),...,x(c−1),x(c+1),...,x(c+m)∈R|V|)</span><scripttype="math/tex">(x(c−m),...,x(c−1),x(c+1),...,x(c+m)∈R|V|)
我们从上下文
(vc−m=Vx(c−m),vc−m+1=Vx(c−m+1),...,vc+m=Vx(c+m)∈Rn)(vc−m=Vx(c−m),vc−m+1=Vx(c−m+1),...,vc+m=Vx(c+m)∈Rn) 得到嵌入词向量。
对上述的向量求平均值 ˆv=vc−m+vc−m+1+...+vc+m2m∈Rnv^=vc−m+vc−m+1+...+vc+m2m∈Rn 。
生成一个分数向量 z=Uˆv∈R|V|z=Uv^∈R|V| 。当相似向量的点积越高,就会令到相似的词更为靠近,从而获得更高的分数。将分数转换为概率 ˆy=softmax(z)∈R|V|y^=softmax(z)∈R|V| 。
这里 softmax 是一个常用的函数。它将一个向量转换为另外一个向量,其中转换后的向量的第 ii 个元素是 eˆyi∑|V|k=1eˆykey^i∑k=1|V|ey^k 。因为该函数是一个指数函数,所以值一定为正数;通过除以 ∑|V|k=1eˆyk∑k=1|V|ey^k 来归一化向量(使得 ∑|V|k=1ˆyk=1∑k=1|V|y^k=1)得到概率。
我们希望生成的概率 ˆy∈R|V|y^∈R|V| 与实际的概率 y∈R|V|y∈R|V| 匹配。使得其刚好是实际的词就是这个 one-hot 向量。
下图是 CBOW 模型的计算图示
如果有 VV 和 UU ,我们知道这个模型是如何工作的,那我们如何学习这两个矩阵呢?这需要创建一个目标函数。一般我们想从一些真实的概率中学习一个概率,信息论提供了一个 度量两个概率分布的距离 的方法。这里我们采用一个常见的距离/损失方法,交叉熵 H(ˆy,y)H(y^,y) 。
在离散情况下使用交叉熵可以直观地得出损失函数的公式
上面的公式中,y 是 one-hot 向量。因此上面的损失函数可以简化为:
c 是正确词的 one-hot 向量的索引。我们现在可以考虑我们的预测是完美并且 ˆyc=1y^c=1 的情况。然后我们可以计算 H(ˆy,y)=−1log(1)=0H(y^,y)=−1log(1)=0 。因此,对一个完美的预测,我们不会面临任何惩罚或者损失。现在我们考虑一个相反的情况,预测非常差并且 ˆyc=0.01y^c=0.01 。和前面类似,我们可以计算损失 H(ˆy,y)=−1log(0.01)=4.605H(y^,y)=−1log(0.01)=4.605 。因此,我们可以看到,对于概率分布,交叉熵为我们提供了一个很好的距离度量。因此我们的优化目标函数公式为:
我们使用 SGD 来更新所有相关的词向量 ucuc 和 vjvj 。SGD 对一个窗口计算梯度和更新参数:
Skip-Gram Model
Skip-Gram模型与CBOW大体相同,但是交换了我们的 x 和 y,即 CBOW 中的 x 现在是 y,y 现在是 x。输入的 one-hot 向量(中心词)我们表示为 x,输出向量为 y(j)y(j) 。我们定义的 VV 和 UU 是和 CBOW 一样的。
生成中心词的 one-hot 向量 x∈R|V|x∈R|V|
我们对中心词 vc=Vx∈R|V|vc=Vx∈R|V| 得到词嵌入向量
生成分数向量 z=Uvcz=Uvc
将分数向量转化为概率, ˆy=softmax(z)y^=softmax(z) 注意 ˆyc−m,...,ˆyc−1,ˆyc+1,...,ˆyc+my^c−m,...,y^c−1,y^c+1,...,y^c+m 是每个上下文词观察到的概率
我们希望我们生成的概率向量匹配真实概率 y(c−m),...,y(c−1),y(c+1),...,y(c+m)y(c−m),...,y(c−1),y(c+1),...,y(c+m) ,one-hot 向量是实际的输出。
下图是 Skip-Gram 模型的计算图示
和 CBOW 模型一样,我们需要生成一个目标函数来评估这个模型。与 CBOW 模型的一个主要的不同是我们引用了一个朴素的贝叶斯假设来拆分概率。这是一个很强(朴素)的条件独立假设。换而言之,给定中心词,所有输出的词是完全独立的。(即公式1至2行)
通过这个目标函数,我们可以计算出与未知参数相关的梯度,并且在每次迭代中通过 SGD 来更新它们。
注意
其中 H(ˆy,yc−m+j)H(y^,yc−m+j) 是向量 ˆyy^ 的概率和 one-hot 向量 yc−m+jyc−m+j 之间的交叉熵。
只有一个概率向量 ^yy^ 是被计算的。Skip-Gram 对每个上下文单词一视同仁:该模型计算每个单词在上下文中出现的概率,而与它到中心单词的距离无关。
Negative Sampling
让我们再回到目标函数上。注意对 |V||V| 的求和计算量是非常大的。任何的更新或者对目标函数的评估都要花费 O(|V|)O(|V|) 的时间复杂度。一个简单的想法是不去直接计算,而是去求近似值。
在每一个训练的时间步,我们不去遍历整个词汇表,而仅仅是抽取一些负样例。我们对噪声分布 Pn(w)Pn(w) “抽样”,这个概率是和词频的排序相匹配的。为加强对问题的表述以纳入负抽样,我们只需更新其
目标函数
梯度
更新规则
Mikolov 在论文《Distributed Representations of Words and Phrases and their Compositionality.》中提出了负采样。虽然负采样是基于 Skip-Gram 模型,但实际上是对一个不同的目标函数进行优化。
考虑一对中心词和上下文词 (w,c)(w,c) 。这词对是来自训练数据集吗?我们通过 P(D=1∣w,c)P(D=1∣w,c) 表示 (w,c)(w,c) 是来自语料库。相应地, P(D=0∣w,c)P(D=0∣w,c) 表示 (w,c)(w,c) 不是来自语料库。
首先,我们对 P(D=1∣w,c)P(D=1∣w,c) 用 sigmoid 函数建模:
现在,我们建立一个新的目标函数,如果中心词和上下文词确实在语料库中,就最大化概率 P(D=1∣w,c)P(D=1∣w,c) ,如果中心词和上下文词确实不在语料库中,就最大化概率 P(D=0∣w,c)P(D=0∣w,c) 。我们对这两个概率采用一个简单的极大似然估计的方法(这里我们把 θθ 作为模型的参数,在我们的例子是 VV 和 UU )
注意最大化似然函数等同于最小化负对数似然:
注意 ˜DD~ 是“假的”或者“负的”语料。例如我们有句子类似“stock boil fish is toy”,这种无意义的句子出现时会得到一个很低的概率。我们可以从语料库中随机抽样出负样例 ˜DD~ 。
对于 Skip-Gram 模型,我们对给定中心词 cc 来观察的上下文单词 c−m+jc−m+j 的新目标函数为
在上面的公式中,{˜uk∣k=1...K}{u~k∣k=1...K} 是从 Pn(w)Pn(w) 中抽样。有很多关于如何得到最好近似的讨论,从实际效果看来最好的是指数为 ¾ 的 Unigram 模型。那么为什么是 ¾?下面有一些例如可能让你有一些直观的了解:
“Bombastic”现在被抽样的概率是之前的三倍,而“is”只比之前的才提高了一点点。
Hierarchical Softmax
Mikolov 在论文《Distributed Representations of Words and Phrases and their Compositionality.》中提出了 hierarchical softmax,相比普通的 softmax 这是一种更有效的替代方法。在实际中,hierarchical softmax 对低频词往往表现得更好,负采样对高频词和较低维度向量表现得更好。
Hierarchical softmax 使用一个二叉树来表示词表中的所有词。树中的每个叶结点都是一个单词,而且只有一条路径从根结点到叶结点。在这个模型中,没有词的输出表示。相反,图的每个节点(根节点和叶结点除外)与模型要学习的向量相关联。单词作为输出单词的概率定义为从根随机游走到单词所对应的叶的概率。计算成本变为 O(log(|V|))O(log(|V|)) 而不是 O(|V|)O(|V|) 。
在这个模型中,给定一个向量 wiwi 的下的单词 ww 的概率 p(w∣wi)p(w∣wi) ,等于从根结点开始到对应 w 的叶结点结束的随机漫步概率。这个方法最大的优势是计算概率的时间复杂度仅仅是 O(log(|V|))O(log(|V|)) ,对应着路径的长度。
下图是 Hierarchical softmax 的二叉树示意图
让我们引入一些概念。令 L(w)L(w) 为从根结点到叶结点 ww 的路径中节点数目。例如,上图中的 L(w2)L(w2) 为 3。我们定义 n(w,i)n(w,i) 为与向量 vn(w,i)vn(w,i) 相关的路径上第 ii 个结点。因此 n(w,1)n(w,1) 是根结点,而 n(w,L(w))n(w,L(w)) 是 ww 的父节点。现在对每个内部节点 nn,我们任意选取一个它的子节点,定义为 ch(n)ch(n) (一般是左节点)。然后,我们可以计算概率为
其中
这个公式看起来非常复杂,让我们细细梳理一下。
首先,我们将根据从根节点 (n(w,1))(n(w,1)) 到叶节点 (w)(w) 的路径的形状来计算相乘的项。如果我们假设 ch(n)ch(n) 一直都是 nn 的左节点,然后当路径往左时 [n(w,j+1)=ch(n(w,j))][n(w,j+1)=ch(n(w,j))] 的值返回 1,往右则返回 0。
此外,[n(w,j+1)=ch(n(w,j))][n(w,j+1)=ch(n(w,j))] 提供了归一化的作用。在节点 nn 处,如果我们将去往左和右节点的概率相加,对于 vTnvwivnTvwi 的任何值则可以检查,
最后我们计算点积来比较输入向量 vwivwi 对每个内部节点向量 vTn(w,j)vn(w,j)T 的相似度。下面我们给出一个例子。以上图中的 w2w2 为例,从根节点要经过两次左边的边和一次右边的边才到达 w2w2 ,因此
我们训练模型的目标是最小化负的对数似然 −logP(w∣wi)−logP(w∣wi) 。不是更新每个词的输出向量,而是更新更新二叉树中从根结点到叶结点的路径上的节点的向量。
该方法的速度由构建二叉树的方式确定,并将词分配给叶节点。Mikolov 在论文《Distributed Representations of Words and Phrases and their Compositionality.》中使用的是哈夫曼树,在树中分配高频词到较短的路径。
Gensim提供了将 Glove
转化为Word2Vec格式的API,并且提供了 most_similar
, doesnt_match
等API。我们可以对most_similar
进行封装,输出三元组的类比结果
model = KeyedVectors.load_word2vec_format(word2vec_glove_file)
model.most_similar('banana')
def analogy(x1, x2, y1):
result = model.most_similar(positive=[y1, x2], negative=[x1])
return result[0][0]
analogy('japan', 'japanese', 'australia')
model.doesnt_match("breakfast cereal dinner lunch".split())
Word2Vec Tutorial - The Skip-Gram Model
Fake Task
我们将训练一个带有单个隐藏层的简单神经网络来执行某个任务,但是我们实际上并没有将这个神经网络用于我们训练它的任务。相反,目标实际上只是学习隐藏层的权重,这实际上是我们试图学习的“单词向量”。这一技巧也在无监督的特征学习常用。训练一个auto-encoder
从而在隐藏层中压缩输入向量并在输出层将隐藏层向量解压缩得到输入向量。训练完成后,去除输出层,只是用隐藏层。
下图是从源文本中抽取样本的过程
下图是网络架构图
如果两个不同的单词具有非常相似的“上下文”(即它们周围可能出现的单词是相似的),那么我们的模型需要为这两个单词输出非常相似的结果。网络为这两个单词输出类似的上下文预测的一种方式是判断单词向量是否相似。因此,如果两个单词具有相似的上下文,那么我们的网络就会为这两个单词学习相似的单词向量!
Efficient Estimation of Word Representations in Vector Space(original word2vec paper)
Distributed Representations of Words and Phrases and their Compositionality (negative sampling paper)
上述Paper在Note中已有详细笔记
以下是学习本课程时的可用参考书籍:
《基于深度学习的自然语言处理》 (车万翔老师等翻译)
《神经网络与深度学习》
以下是整理笔记的过程中参考的博客:
斯坦福CS224N深度学习自然语言处理2019冬学习笔记目录 (课件核心内容的提炼,并包含作者的见解与建议)
斯坦福大学 CS224n自然语言处理与深度学习笔记汇总 这是针对note部分的翻译
Notes on Stanford CS224n (我的同学 @lintongmao 的学习笔记)
方便交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。
记得备注呦
推荐阅读:
【ACL 2019】腾讯AI Lab解读三大前沿方向及20篇入选论文
【一分钟论文】IJCAI2019 | Self-attentive Biaffine Dependency Parsing
【一分钟论文】 NAACL2019-使用感知句法词表示的句法增强神经机器翻译
【一分钟论文】Semi-supervised Sequence Learning半监督序列学习
【一分钟论文】Deep Biaffine Attention for Neural Dependency Parsing
详解Transition-based Dependency parser基于转移的依存句法解析器
经验 | 初入NLP领域的一些小建议
学术 | 如何写一篇合格的NLP论文
干货 | 那些高产的学者都是怎样工作的?
一个简单有效的联合模型
近年来NLP在法律领域的相关研究工作
让更多的人知道你“在看”