作者:刘建平Pinard
博客地址:https://www.cnblogs.com/pinard
原文链接,点击文末阅读全文直达:
https://www.cnblogs.com/pinard/p/7243513.html
word2vec原理(一) CBOW与Skip-Gram模型基础
word2vec原理(二) 基于Hierarchical Softmax的模型
word2vec原理(三) 基于Negative Sampling的模型
注意:本文公式较多,建议电脑端阅读,打开作者博客,阅读更佳哦!
在Word2Vec原理篇 | CBOW与Skip-Gram模型基础中,我们讲到了使用神经网络的方法来得到词向量语言模型的原理和一些问题,现在我们开始关注word2vec的语言模型如何改进传统的神经网络的方法。由于word2vec有两种改进方法,一种是基于Hierarchical Softmax的,另一种是基于Negative Sampling的。本文关注于基于Hierarchical Softmax的改进方法,在下一篇讨论基于Negative Sampling的改进方法。
我们先回顾下传统的神经网络词向量语言模型,里面一般有三层,输入层(词向量),隐藏层和输出层(softmax层)。里面最大的问题在于从隐藏层到输出的softmax层的计算量很大,因为要计算所有词的softmax概率,再去找概率最大的值。这个模型如下图所示。其中V是词汇表的大小,
word2vec对这个模型做了改进,首先,对于从输入层到隐藏层的映射,没有采取神经网络的线性变换加激活函数的方法,而是采用简单的对所有输入词向量求和并取平均的方法。比如输入的是三个4维词向量:(1,2,3,4),(9,6,11,8),(5,10,7,12),那么我们word2vec映射后的词向量就是(5,6,7,8)。由于这里是从多个词向量变成了一个词向量。
第二个改进就是从隐藏层到输出的softmax层这里的计算量个改进。为了避免要计算所有词的softmax概率,word2vec采样了霍夫曼树来代替从隐藏层到输出softmax层的映射。我们在上一节已经介绍了霍夫曼树的原理。如何映射呢?这里就是理解word2vec的关键所在了。
由于我们把之前所有都要计算的从输出softmax层的概率计算变成了一颗二叉霍夫曼树,那么我们的softmax概率计算只需要沿着树形结构进行就可以了。如下图所示,我们可以沿着霍夫曼树从根节点一直走到我们的叶子节点的词。
和之前的神经网络语言模型相比,我们的霍夫曼树的所有内部节点就类似之前神经网络隐藏层的神经元,其中,根节点的词向量对应我们的投影后的词向量,而所有叶子节点就类似于之前神经网络softmax输出层的神经元,叶子节点的个数就是词汇表的大小。在霍夫曼树中,隐藏层到输出层的softmax映射不是一下子完成的,而是沿着霍夫曼树一步步完成的,因此这种softmax取名为"Hierarchical Softmax"。
如何“沿着霍夫曼树一步步完成”呢?在word2vec中,我们采用了二元逻辑回归的方法,即规定沿着左子树走,那么就是负类(霍夫曼树编码1),沿着右子树走,那么就是正类(霍夫曼树编码0)。判别正类和负类的方法是使用sigmoid函数,即:
其中是当前内部节点的词向量,而则是我们需要从训练样本求出的逻辑回归的模型参数。
使用霍夫曼树有什么好处呢?首先,由于是二叉树,之前计算量为,现在变成了。第二,由于使用霍夫曼树是高频的词靠近树根,这样高频词需要更少的时间会被找到,这符合我们的贪心优化思想。
容易理解,被划分为左子树而成为负类的概率为。在某一个内部节点,要判断是沿左子树还是右子树走的标准就是看,谁的概率值大。而控制,谁的概率值大的因素一个是当前节点的词向量,另一个是当前节点的模型参数。
对于上图中的,如果它是一个训练样本的输出,那么我们期望对于里面的隐藏节点的概率大,的概率大,的概率大。
回到基于Hierarchical Softmax的word2vec本身,我们的目标就是找到合适的所有节点的词向量和所有内部节点θ, 使训练样本达到最大似然。那么如何达到最大似然呢?
我们使用最大似然法来寻找所有节点的词向量和所有内部节点。先拿上面的例子来看,我们期望最大化下面的似然函数:
对于所有的训练样本,我们期望最大化所有样本的似然函数乘积。
为了便于我们后面一般化的描述,我们定义输入的词为,其从输入层词向量求和平均后的霍夫曼树根节点词向量为, 从根节点到所在的叶子节点,包含的节点总数为, 在霍夫曼树中从根节点开始,经过的第i个节点表示为,对应的霍夫曼编码为,其中。而该节点对应的模型参数表示为, 其中,没有是因为模型参数仅仅针对于霍夫曼树的内部节点。
定义经过的霍夫曼树某一个节点的逻辑回归概率为,其表达式为:
那么对于某一个目标输出词,其最大似然为:
在word2vec中,由于使用的是随机梯度上升法,所以并没有把所有样本的似然乘起来得到真正的训练集最大似然,仅仅每次只用一个样本更新梯度,这样做的目的是减少梯度计算量。这样我们可以得到的对数似然函数如下:
要得到模型中w词向量和内部节点的模型参数θ, 我们使用梯度上升法即可。首先我们求模型参数的梯度:
如果大家看过之前写的逻辑回归原理小结,会发现这里的梯度推导过程基本类似。
同样的方法,可以求出的梯度表达式如下:
有了梯度表达式,我们就可以用梯度上升法进行迭代来一步步的求解我们需要的所有的和。
由于word2vec有两种模型:CBOW和Skip-Gram,我们先看看基于CBOW模型时, Hierarchical Softmax如何使用。
首先我们要定义词向量的维度大小,以及CBOW的上下文大小,这样我们对于训练样本中的每一个词,其前面的个词和后面的个词作为了CBOW模型的输入,该词本身作为样本的输出,期望softmax概率最大。
在做CBOW模型前,我们需要先将词汇表建立成一颗霍夫曼树。
对于从输入层到隐藏层(投影层),这一步比较简单,就是对周围的个词向量求和取平均即可,即:
第二步,通过梯度上升法来更新我们的和,注意这里的是由个词向量相加而成,我们做梯度更新完毕后会用梯度项直接更新原始的各个,即:
其中为梯度上升法的步长。
这里总结下基于Hierarchical Softmax的CBOW模型算法流程,梯度迭代使用了随机梯度上升法:
输入:基于CBOW的语料训练样本,词向量的维度大小,CBOW的上下文大小,步长. 输出:霍夫曼树的内部节点模型参数,所有的词向量.
a) e=0, 计算 。
b) for j = 2 to , 计算:
c) 对于context(w)中的每一个词向量xi(共2c个)进行更新:.
d) 如果梯度收敛,则结束梯度迭代,否则回到步骤3继续迭代。
现在我们先看看基于Skip-Gram模型时, Hierarchical Softmax如何使用。此时输入的只有一个词w,输出的为2c个词向量。
我们对于训练样本中的每一个词,该词本身作为样本的输入, 其前面的c个词和后面的c个词作为了Skip-Gram模型的输出,,期望这些词的softmax概率比其他的词大。
Skip-Gram模型和CBOW模型其实是反过来的,在上一篇已经讲过。
在做CBOW模型前,我们需要先将词汇表建立成一颗霍夫曼树。
对于从输入层到隐藏层(投影层),这一步比CBOW简单,由于只有一个词,所以,即就是词对应的词向量。
第二步,通过梯度上升法来更新我们的和,注意这里的周围有个词向量,此时如果我们期望,最大。此时我们注意到由于上下文是相互的,在期望,最大化的同时,反过来我们也期望,最大。那么是使用好还是好呢,word2vec使用了后者,这样做的好处就是在一个迭代窗口内,我们不是只更新一个词,而是共个词。这样整体的迭代会更加的均衡。因为这个原因,Skip-Gram模型并没有和CBOW模型一样对输入进行迭代更新,而是对个输出进行迭代更新。
这里总结下基于Hierarchical Softmax的Skip-Gram模型算法流程,梯度迭代使用了随机梯度上升法:
输入:基于Skip-Gram的语料训练样本,词向量的维度大小,Skip-Gram的上下文大小,步长
输出:霍夫曼树的内部节点模型参数,所有的词向量
基于语料训练样本建立霍夫曼树。
随机初始化所有的模型参数,所有的词向量,
进行梯度上升迭代过程,对于训练集中的每一个样本做如下处理:
a) for i =1 to 2c:
i) e=0
ii)for j = 2 to , 计算:
iii)
b)如果梯度收敛,则结束梯度迭代,算法结束,否则回到步骤继续迭代。
这里给出上面算法和word2vec源码(https://github.com/tmikolov/word2vec/blob/master/word2vec.c)中的变量对应关系。
在源代码中,基于Hierarchical Softmax的CBOW模型算法在435-463行,基于Hierarchical Softmax的Skip-Gram的模型算法在495-519行。大家可以对着源代码再深入研究下算法。
在源代码中,neule对应我们上面的, syn0对应我们的, syn1对应我们的, layer1_size对应词向量的维度,window对应我们的。
另外,指的是,当前单词word的,第个编码,编码不含Root结点。指的是,当前单词word,第个编码下,前置的结点。
以上就是基于Hierarchical Softmax的word2vec模型,下一篇我们讨论基于Negative Sampling的word2vec模型。
推荐阅读
这个NLP工具,玩得根本停不下来
征稿启示| 200元稿费+5000DBC(价值20个小时GPU算力)
完结撒花!李宏毅老师深度学习与人类语言处理课程视频及课件(附下载)
从数据到模型,你可能需要1篇详实的pytorch踩坑指南
如何让Bert在finetune小数据集时更“稳”一点
模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法
文本自动摘要任务的“不完全”心得总结番外篇——submodular函数优化
Node2Vec 论文+代码笔记
模型压缩实践收尾篇——模型蒸馏以及其他一些技巧实践小结
中文命名实体识别工具(NER)哪家强?
学自然语言处理,其实更应该学好英语
斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用
关于AINLP
AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。
阅读至此了,分享、点赞、在看三选一吧?