Facebook开源工具包LASER,支持93种语言

\u003cblockquote\u003e\n\u003cp\u003e为了加速自然语言处理(NLP)在更多语言上进行零样本迁移,Facebook 扩展并增强了LASER(Language-Agnostic SEntence Representations)工具包,并将其开源。这是第一个成功探索大型多语种句子表示并与广大NLP社区共享的工具。\u003c/p\u003e\n\u003c/blockquote\u003e\n\u003cp\u003e该工具包现在可以使用90多种语言和28种不同的字母表。LASER通过将所有语言联合嵌入到单个共享空间(而不是为每种语言分别建立单独的模型)来实现这些结果。我们现在免费提供多语言编码器和\u003ca href=\"https://github.com/facebookresearch/LASER\"\u003ePyTorch代码\u003c/a\u003e,以及针对100多种语言的多语言测试集。\u003c/p\u003e\n\u003cp\u003eLASER打开了从一种语言(如英语)到其他几种语言(包括训练数据极为有限的语言)进行NLP模型零样本迁移的大门。LASER是第一个使用单一模型处理各种语言的库,包括低资源语言(如卡拜尔语和维吾尔语),以及中国的吴语等方言。有朝一日,这项工作可以帮助Facebook和其他公司推出一些特定的NLP功能,例如,使用一种语言将电影评论分类为正面或负面,然后再使用其他100多种语言发布。\u003c/p\u003e\n\u003ch2\u003e性能和功能亮点\u003c/h2\u003e\n\u003cp\u003eLASER为XNLI语料库14种语言中的13种带来了更高的零样本跨语言自然语言推理准确率。它还在跨语言文档分类(MLDoc语料库)方面获得了很好的结果。我们的句子嵌入在并行语料库挖掘方面也有很好的表现,在BUCC(BUCC是在2018年举行的一个构建和使用可比较语料库研讨会)共享任务中将四个语言对中的三个提升到了一个新的技术水平。除了LASER工具包,我们在Tatoeba语料库的基础上共享了100多种语言对齐句子的测试集。使用这个数据集,我们的句子嵌入在多语言相似性搜索中获得了很好的结果,即使是低资源语言也是如此。\u003c/p\u003e\n\u003cp\u003eLASER还提供了其他的一些好处:\u003c/p\u003e\n\u003cul\u003e\n\u003cli\u003e它提供了极快的性能,在GPU上每秒处理多达2,000个句子。\u003c/li\u003e\n\u003cli\u003e句子编码器使用PyTorch实现,只有很少的外部依赖。\u003c/li\u003e\n\u003cli\u003e低资源语言可以从多种语言的联合训练中受益。\u003c/li\u003e\n\u003cli\u003e该模型支持在一个句子中使用多种语言。\u003c/li\u003e\n\u003cli\u003e随着新语言的添加,性能会有所提高,因为系统会学会识别语言族的特征。\u003c/li\u003e\n\u003c/ul\u003e\n\u003ch2\u003e通用的语言无关性句子嵌入\u003c/h2\u003e\n\u003cp\u003eLASER的句子向量表示对于输入语言和NLP任务都是通用的。它将语言的句子映射到高维空间中的一个点,目标是让语言中的相同语句最终出现在同一邻域中。该表示可以被视为语义向量空间中的一种通用语言。我们已经观察到,空间中的距离与句子的语义紧密程度密切相关。\u003c/p\u003e\n\u003cp\u003e\u003cimg src=\"https://static.geekbang.org/infoq/5c47ff8565c27.png\" alt=\"image\" /\u003e\u003c/p\u003e\n\u003ccenter/\u003e左边的图像显示了单语嵌入空间。右侧图像说明了LASER的方法,它将所有语言嵌入到一个共享空间中。\u003c/center\u003e\n\u003cbr\u003e\n我们的方法建立在与神经机器翻译相同的基础技术之上:编码器/解码器方法,也称为序列到序列处理。我们为所有输入语言使用一个共享编码器,并使用共享解码器生成输出语言。编码器是五层双向LSTM(长短期记忆)网络。与神经机器翻译相比,我们不使用注意机制,而是使用1,024维固定大小的向量来表示输入句子。它是通过对BiLSTM的最后状态进行最大池化得到的。我们因此能够比较句子的表示形式,并将它们直接输入分类器中。\n\u003cp\u003e\u003cimg src=\"https://static.geekbang.org/infoq/5c47ff85cb293.png\" alt=\"image\" /\u003e\u003c/p\u003e\n\u003ccenter/\u003e方法架构\u003c/center\u003e\n\u003cbr\u003e\n这些句子嵌入用于初始化解码器LSTM,通过线性变换以及在每个时间步骤上将其连接到输入嵌入。编码器和解码器之间没有其他的连接,因为我们希望通过句子嵌入捕获到输入序列的所有相关信息。\n\u003cp\u003e我们必须告诉解码器要生成哪种语言。它需要一个语言标识,也就是在每个时间步骤上连接到输入和句子嵌入的标识。我们使用具有50,000个操作的联合字节对编码(BPE)词汇表,在所有连接的训练语料库上进行训练。由于编码器没有指示输入语言的显式信号,因此编码器需要学习与语言无关的表示。我们基于公共并行数据的2.23亿个句子(它们与英语或西班牙语对齐)训练我们的系统。对于每个迷你批次,我们随机选择一种输入语言,让系统将句子翻译成英语或西班牙语。大多数语言都与目标语言保持一致,虽然这不是必需的。\u003c/p\u003e\n\u003cp\u003e我们刚开始训练了不到10种欧洲语言,所有语言都使用了相同的拉丁文字。后来,我们逐渐增加到Europarl语料库中提供的21种语言,结果表明,随着我们添加的语言越来越多,多语言迁移性能也得到了提升。系统学习了语言家族的通用特征。通过这种方式,低资源语言可以从同一族高资源语言的资源中获益。\u003c/p\u003e\n\u003cp\u003e这可能可以通过使用在所有语言的连接上训练的共享BPE词汇表来实现。我们对每种语言BPE词汇表分布之间的对称Kullback-Leiber距离进行了分析和聚类,结果显示,Kullback-Leiber距离与语言家族具有几乎完美的相关性。\u003c/p\u003e\n\u003cp\u003e\u003cimg src=\"https://static.geekbang.org/infoq/5c47ff8629223.png\" alt=\"image\" /\u003e\u003c/p\u003e\n\u003ccenter/\u003eLASER自动发现各种语言之间的关系,与语言学家手动定义的语言家族非常吻合。\u003c/center\u003e\n\u003cbr\u003e\n我们意识到,单个共享的BiLSTM编码器可以处理多个脚本。我们逐渐扩展到所有可以识别免费并行文本的语言。被纳入LASER的93种语言包括SVO顺序(例如英语)、SOV顺序(例如孟加拉语和突厥语)、VSO顺序(例如塔加路语和柏柏尔语),甚至是VOS顺序(例如马达加斯加语)的语言。\n\u003cbr\u003e\u003cbr\u003e\n我们的编码器可以推广到未使用的语言(甚至是单语文本)。我们发现了它在一些区域语言上表现良好,例如阿斯图里亚斯语、法罗语、弗里斯兰语、卡舒比语、北摩鹿加语马来语、皮埃蒙特语、斯瓦比亚语和索布语。所有这些语言都在不同程度上与其他主要语言有一些相似之处,但它们的语法或特定词汇有所不同。\n\u003cp\u003e\u003cimg src=\"https://static.geekbang.org/infoq/5c47ff868ce0c.png\" alt=\"image\" /\u003e\u003c/p\u003e\n\u003ccenter/\u003eLASER在XNLI语料库上的零样本迁移性能\u003c/center\u003e\n\u003ch2\u003e零样本跨语言的自然语言推理\u003c/h2\u003e\n\u003cp\u003e我们的模型在跨语言自然语言推理(NLI)中获得了良好的效果。在这项任务上的表现是一个强有力的指标,它能够很好地说明这个模型是如何表达一个句子的意思的。我们针对英语训练NLI分类器,然后将其应用于所有目标语言,不需要进行微调或使用目标语言资源。在14种语言中,有8种语言的零样本性能表现在英语的5%以内,包括俄语、中文和越南语等。我们在斯瓦希里语和乌尔都语等低资源语言上也取得了很好的成绩。最后,LASER在14种语言中的13种语言上的表现优于所有以前的零样本迁移方法。\u003c/p\u003e\n\u003cp\u003e与之前的方法不同,之前的方法需要一个英语句子,而我们的系统是完全多语言的,并且支持不同语言的任意前提和假设组合。\u003c/p\u003e\n\u003cp\u003e\u003cimg src=\"https://static.geekbang.org/infoq/5c47ff8774b30.png\" alt=\"image\" /\u003e\u003c/p\u003e\n\u003ccenter/\u003eLASER如何在不同语言的XNLI语料库中确定句子之间的关系。以前的方法只考虑相同语言的前提和假设。\u003c/center\u003e\n\u003cbr\u003e\n同样的句子编码器也被用于挖掘大量单语文本中的并行数据。我们只需要计算所有句子对之间的距离,并选择最接近的句子对。我们考虑了最近句子和其他最近句子之间的距离,以此来进一步改进该方法。我们使用了Facebook的\u003ca href=\"https://code.fb.com/data-infrastructure/faiss-a-library-for-efficient-similarity-search/\"\u003eFAISS库\u003c/a\u003e来高效执行这个搜索。\n\u003cp\u003e我们在共享BUCC任务上的表现远远超过了现有水平。我们的系统明显是为完成这个任务而开发的。我们将德语/英语的F1得分从85.5提高到96.2,法语/英语从81.5提高到93.9,俄语/英语从81.3提高到93.3,汉语/英语从77.5提高到92.3。正如这些示例所示,我们的结果在所有语言中都是高度同质的。\u003c/p\u003e\n\u003cp\u003e该方法的详细信息可以在这篇研究论文中找到:\u003ca href=\"https://arxiv.org/abs/1812.10464\"\u003ehttps://arxiv.org/abs/1812.10464\u003c/a\u003e。\u003c/p\u003e\n\u003cp\u003e同样的方法也适用于使用任意语言对在90多种语言中挖掘并行数据。预计这将显著改善许多依赖于并行训练数据的NLP应用程序,包括低资源语言的神经机器翻译。\u003c/p\u003e\n\u003ch2\u003e未来的应用\u003c/h2\u003e\n\u003cp\u003eLASER还可以用于其他相关任务。例如,多语言语义空间特性可用于解释一个句子或搜索具有类似含义的句子——可以使用相同的语言,也可以使用LASER目前支持的93种其他语言中的任意一种。我们将继续改进我们的模型,在现有的93种语言基础上增加更多的语言。\u003c/p\u003e\n\u003cp\u003e\u003cstrong\u003e英文原文:\u003c/strong\u003e\u003ca href=\"https://code.fb.com/ai-research/laser-multilingual-sentence-embeddings/\"\u003ehttps://code.fb.com/ai-research/laser-multilingual-sentence-embeddings/\u003c/a\u003e\u003c/p\u003e\n

你可能感兴趣的:(Facebook开源工具包LASER,支持93种语言)