文本分类-text classification 推荐论文

 

最近在做文本分类的任务,所以看了比较多的论文,然后想写一些东西,记录这段时间的一个总结,论文主要是找的最近几年的论文阅读的。 受启发于作者这篇链接,就把最近看的一些文本分类比较有用的论文整理一下。

文本分类论文一览表
论文题目 发表会议 发表年份 网络结构 论文方法

Convolutional Neural Networks for Sentence Classification

EMNLP

2014 cnn 最经典的文本分类,采用多窗口卷积神经网络,易于实现。
Recurrent convolutional neural networks for text classification AAAI 2015 RCNN 提出了一种无人工特征的循环卷积神经网络分类方法,简称RCNN。RCNN首先利用Bi-RNN来捕捉前后的上下文表征,然后将其concat起来,接着使用滤波器filter_size=1的卷积层,并使用最大池化操作得到与文档最相关的向量表征,最后将这些向量输入到softmax层,得到标签的概率表征。
Character-level convolutional networks for text classification LG 2015 cnn 作者将字符级的文本当做原始信号,并且使用一维的卷积神经网络来处理它。

Hierarchical Attention Networks for Document Classification

NAACL 

2016 HAN 一种用于文档分类的层次注意力机制网络,简称HAN。在句子级别以及文档级别提出了注意力机制,使得模型在构建文档时是能够赋予重要内容不同的权重。

Bag of Tricks for Efficient Text Classification

EACL

2017 fasttext 一种简单而又有效的文本分类模型,简称fastText,模型输入一个词序列(一段文本或者一句话),序列中的词与词组成特征向量,然后特征向量通过线性变换映射到中间层,中间层再映射到标签。输出这个词序列属于不同类别的概率。充分利用了h-softmax的分类功能,遍历分类树的所有叶节点,找到概率最大的label(一个或者N个)。

Deep Pyramid Convolutional Neural Networks for Text Categorization

ACL

2017 DPCNN 提出了一种单词级别的深层CNN模型,来捕捉文本的全局语义表征,该模型在不增加太多的计算开销的情况下,通过增加网络深度可以获得最佳的性能,简称DPCNN。
Very deep convolutional
networks for text classification
EACL 2017 VDCNN

文章利用了29个卷积层,提升文本分类的准去率。

Combining Knowledge with Deep Convolutional Neural Networks for Short Text Classification

IJCAI 2017   论文引入知识库概念化短文本,将概念知识和短文本embedding结合起来。其中针对word和concept采用预训练word embedding并保持不变,允许字符级别的embedding在训练过程更新。整体结构为CNNs架构,均为一层输入,两层卷积,两层池化,两层隐含层,其中一路针对文本的word和concept embedding,一路针对字符embedding(输入为编码的字符序列)。
Generative and Discriminative Text Classification with Recurrent Neural Networks IJCAL 2017 D-Lstm 生成模型比判别模型具有更加优异的性能,经过生成模型和判别模型的建模给出结论。

Universal Language Model Fine-tuning for Text Classification

ACL 2018 ULMFIT 利用pretrain语言模型(language model),但是语言模型容易在小型数据上过拟合,且当训练分类器时容易忘记pretrain语言模型学到的知识,本文提出一种语言模型的精调(fine-tuning)技巧,用于nlp领域的迁移学习(transfer learning)。
Joint Embedding of Words and Labels for Text Classification ACL 2018 LEAM 将标签label与输入文本word embedding在相同空间进行词嵌入,并引入attention框架,计算输入文本text sequence和标签label 之间attention系数。
Disconnected recurrent neural networks for text categorization ACL 2018 DRNN

试图让RNN也能像CNN一样捕捉到local和position-invariant的特征。这样做之后,RNN失去了长时间的依赖,变成了每个time step只依赖周围的词。

Investigating Capsule Networks with Dynamic Routing for Text Classification

EMNLP 2018   先利用标准的卷积网络,通过多个卷积滤波器提取句子的局部语义表征。然后将CNN的标量输出替换为向量输出胶囊,从而构建Primary Capsule层。接着输入到作者提出的改进的动态路由,得到卷积胶囊层。最后将卷积胶囊层的胶囊压平,送入到全连接胶囊层,每个胶囊表示属于每个类别的概率。
JUMPER: Learning When to Make Classification Decisions in Reading IJCAI 2018 JUMPER 将文本理解建模为一个离散的决策过程。通常在阅读过程中,人们寻找线索、进行推理,并从文本中获取信息;受到人类认知过程的启发,我们通过将句子逐个地递送到神经网络来模仿这个过程。在每个句子中,网络基于输入做出决策(也称为动作),并且在该过程结束时,该决策序列可以视为是对文本有了一些 理解。
Learning Structured Representation for Text Classification via Reinforcement Learning AAAI 2018   本文研究了如何学习文本分类的结构化表示。与大多数既不使用结构又依赖于预先指定结构的现有表示模型不同,我们提出了一种强化学习(RL)方法,通过自动覆盖优化结构来学习句子表示。
Adaptive Learning of Local Semantic and Global Structure Representations for Text Classification COLING 2018 SNN 语义和结构信息在语料库和实例级别对文本表示的贡献不均,作者利用SNN网络结构,提出自适应学习语义和结构信息来做文本分类。
Neural Attentive Bag-of-Entities Model for Text Classification  CoNLL  2019

NABOE

从语料库中的单词构建词汇表,而是使用实体以及相关知识来构建实体知识库。通过向量嵌入和与词相关的实体的向量嵌入,给出了词的最终表示。

 

Incorporating Priors with Feature Attribution on Text Classification ACL 2019   我们的方法将特征归因集成到目标函数中,以允许机器学习从业人员将先验知识纳入模型构建。

Enhancing Local Feature Extraction with Global Representation for Neural Text Classification
EMNLP 2019 GELE 论文提出两种编码方式来提取文本分类特征,第一层编码提取全局特征,第二层通过全局编码指引局部特征提取。

Graph Convolutional Networks for Text Classification

AAAI 2019 GCN 作者构建了一个包含word节点和document节点的大型异构文本图,显式地对全局word利用co-occurrence信息进行建模,然后将文本分类问题看作是node分类问题。
Hierarchical Text Classification with Reinforced Label Assignment EMNLP 2019    
Hierarchical Attention Prototypical Networks for Few-Shot Text Classification EMNLP 2019    
EDA: Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks EMNLP 2019    
Induction Networks for Few-Shot Text Classification EMNLP 2019    

 

 

你可能感兴趣的:(论文,神经网络,自然语言处理)