target情感分类(1,0,-1)——Target-dependent sentiment classification with long short term memory

本文总结:这篇文章采用LSTM解决一个句子针对target情感分类问题,在构造句子向量表示时不仅考虑target单词,而且考虑了target vector和每个上下文单词之间的connection。

本文解决的问题是给定句子中的aspect term,判断该句子针对该aspect的情感。共三类:positive,negative,neutral。

本文的创新点在于将目标单词和上下文单词之间的语义联系包含到句子特征中去。

1、LSTM

首先用到的是普通的LSTM,把句子的最后一个单词的隐状态作为softmax分类器的输入,但是带来问题,如果一个句子中有多个target(aspect),那么每次预测时得到的句子表示都是一样的,预测结果也必然一样,显然不合理,因为一句话可能对不同target有不同的情感。

2、TD-LSTM

于是在构建句子的向量表示时需要加入target信息。首先需要说明的一点是,target可能由一个单词或多个单词组成,在LSTM的链式结构中,从左到右递归到target的最后一个单词,从右到左递归到target的第一个单词,然后将两个隐状态的串联作为softmax分类器的输入。

但是还有不完美的地方:没有捕获target和上下文单词的交互信息。

3、TC-LSTM

target-connection LSTM,增加了一个target connection组件。在生成句子表示时,显示的利用target单词和每个上下文单词之间的联系。将target所有组成单词的向量的均值作为target的向量,每个单词的词向量和该target向量串联作为RNN的输入。


本文的优化目标是交叉熵,学习方法是随机梯度下降。本文的词向量是用Twitter数据经GloVec预训练的。

数据集:参见[Dong, 2014],训练集包含6248个句子,测试集有692个句子,训练集和测试集中positive,negative和neutral百分比都是25%,25%,50%。

你可能感兴趣的:(情感分析)