lstm论文_论文复现Attention based LSTM for ABSA

       前一段时间收到了一个论文复现的任务,后来有点事情一直没分享。这里分享一下论文,以及自己的pytorch复现代码。

       首先论文的任务是方面级情感分类,比如:给定句子"这里的饭很好吃,但是工作人员态度很差",这个句子对于"食物"这个aspect来说是积极的,对于"服务"这个aspect来说是消极的。这就是ABSA任务。

论文名:

Attention-based LSTM for Aspect-level Sentiment Classification

pytorch代码:

https://github.com/loganzhang1/Attention-based-LSTM-for-ABSA

lstm论文_论文复现Attention based LSTM for ABSA_第1张图片 lstm论文_论文复现Attention based LSTM for ABSA_第2张图片

       这篇论文提出了一种基于Attention机制的LSTM模型用于ABSA任务。在ABSA任务中,Aspect信息是非常关键的,给定一个句子,考虑不同的aspect,可能会得出不同的情感类别。因此为了最好地利用aspect信息,这篇论文的作者提出了aspect embedding的想法,为每一个aspect学习一个向量。

       因为标准的LSTM不能根据给定的aspect来检测序列的特定区域,为了改进这个问题,这篇论文的作者提出了Attention-based LSTM(AT-LSTM)架构,即在计算attention的时候将句子对应的aspect embedding与每个时间步的隐含层状态拼接起来计算attention值。AT-LSTM模型结构如下:

lstm论文_论文复现Attention based LSTM for ABSA_第3张图片

    为了更好地利用aspect信息,作者将aspect embedding向量嵌入到每个单词的词向量上,在每一个时间步同时输入词向量与aspect embedding。这样,在之后计算attention权重时,就可以建模单词与aspect之间的相关性。最终的模型Attention-based LSTM with Aspect Embedding(ATAE-LSTM)图如下:

lstm论文_论文复现Attention based LSTM for ABSA_第4张图片 lstm论文_论文复现Attention based LSTM for ABSA_第5张图片

     复现最终结果为83.05%,比原文差1%。

lstm论文_论文复现Attention based LSTM for ABSA_第6张图片 lstm论文_论文复现Attention based LSTM for ABSA_第7张图片

你可能感兴趣的:(lstm论文)