[论文泛读]Enhanced LSTM for Natural Language Inference

论文标题:《Enhanced LSTM for Natural Language Inference》

论文链接:https://arxiv.org/abs/1609.06038

简介
今天分享的论文是NLP领域曾一度成为短文本匹配竞赛刷榜利器——ESIM。NLPer应该对这个模型不会陌生。

光看论文标题就可以知道,该模型是一种专为自然语言推断而生的加强版LSTM,那么究竟是如何加强呢?接着往下看。

先说一下,这个模型(论文中)主要在为了做一件什么事情呢?

就是自然语言推断(Natural Language Inference,NLI),即给定前提premise和假设hypothesis,要求判断两者的关系(1.不相干neural;2.冲突contradiction,即有矛盾,3.蕴含entailment,即能从p推断h或者两者表达相同的意思)

上图是该论文的摘要部分,高亮部分就已经突出了该模型的重点:

基于链式LSTMs精心设计了序列推断模型 (carefully designing sequential inference models based on chain LSTMs);
考虑局部推断和推断组合(in both local inference modeling and inference composition)
作者主要是引入了句子间的注意力机制(intra-sentence attention),来实现局部的推断,进而实现全局的推断。

模型详解
下面,仔细拆解一下模型:
[论文泛读]Enhanced LSTM for Natural Language Inference_第1张图片
上图是ESIM的核心框架,主要有三部分:Input Encoding、Local Inference Modeling 和Inference Composition。左半部分就是我们要讲的ESIM,右半部分的区别在于使用了一种叫Tree-LSTM的变种LSTM结构,可用于做句子的语法分析。

你可能感兴趣的:(#,nlp论文,自然语言处理)