深度学习神经网络学习笔记-自然语言处理方向-论文研读-情感分析/文本分类-char_embedding

本文目录

    • 概念引入
    • 由来
    • 摘要大意
    • C2W模型
    • 语言模型的训练流程
    • 词性标注模型
    • 研究成果

概念引入

逻辑回归
线性回归
时间序列分析
神经网络
self-attention与softmax的推导
word2evc

由来

词向量的学习在自然语言处理的应用中非常重要,词向量可以在空间上捕获词之间的语法和语义相似性。但是词向量机制中是假设词和词之间是独立的,这种独立性假设是有问题的,形式的一致性会导致功能的一致性。但这种形态和功能之间的关系有不是绝对的,为了学习这种关系,本文在字符嵌入上使用双向LSTM来捕捉这种关系。 本文的C2W模型能够很好地捕捉词之间的语法和语义相似度,并且在两个任务上取得最优的结果。

深度学习神经网络学习笔记-自然语言处理方向-论文研读-情感分析/文本分类-char_embedding_第1张图片
按照当时的方式像单词中的比较级与最高级这些,用词向量是推不出来的,比如slow的词向量没法推出slower

同时为了避免OOV(out of voacb)问题,我们只好使用更大的数据集训练,去构成一个更大的词表(每个词对应一个词向量),这无疑会增加计算负担

摘要大意

提出了一种新的使用字符和双向LSTM生成词表示的模型。相对于传统的词向量方法,我们的C2W模型需要的参数比较少,主要有两部分,一部分是字符映射成向量的参数,一部分是组合模块LSTM的参数。尽管模型参数少,且单词中的形式-功能关系很难学习,模型在语言模型和词性标注任务上取得最优的结果。这种优势在形态丰富的语言中更加明显。

C2W模型

在本模型中,字符的向量是独立的,词向量不是独立的,而词由字符组成,故如果词之间有类似的字符结构,它们的表意就是相近的,从而解决了形式的一致性会导致功能的一致性的问题。
词嵌入模型
对于一个词嵌入来说,直接找它在词表中的位置就能得到一个对应的词向量
深度学习神经网络学习笔记-自然语言处理方向-论文研读-情感分析/文本分类-char_embedding_第2张图片
字符嵌入模型
对于一个字符嵌入来说,它要在词表中的位置找到对应的信息,然后再通过双向LSTM找到对应的词向量

深度学习神经网络学习笔记-自然语言处理方向-论文研读-情感分析/文本分类-char_embedding_第3张图片

劣势
• 训练时还需要通过LSTM生成词表示,速度比词
向量机制慢
• 测试时虽然可以通过缓存的方法预先生成一些
词向量,但是对于OOV词的词表示的生成依旧速
度慢

优势
• 能够解决OOV(out of voacb)词问题
• 能捕获字符间的结构信息
• 能推理出相似结果的词表示

语言模型的训练流程

深度学习神经网络学习笔记-自然语言处理方向-论文研读-情感分析/文本分类-char_embedding_第4张图片

词性标注模型

深度学习神经网络学习笔记-自然语言处理方向-论文研读-情感分析/文本分类-char_embedding_第5张图片

研究成果

在英语、葡萄牙语、加泰罗尼亚语、德语
和土耳其语五种语言的语言模型上均取得
最优的实验结果。

深度学习神经网络学习笔记-自然语言处理方向-论文研读-情感分析/文本分类-char_embedding_第6张图片
在英语的词性标注任务上取得最优的结果。
深度学习神经网络学习笔记-自然语言处理方向-论文研读-情感分析/文本分类-char_embedding_第7张图片

不同语言上的词性标注模型的训练结果

深度学习神经网络学习笔记-自然语言处理方向-论文研读-情感分析/文本分类-char_embedding_第8张图片

与词向量方法组合的词性标注实验
深度学习神经网络学习笔记-自然语言处理方向-论文研读-情感分析/文本分类-char_embedding_第9张图片

提供了一种新的训练词表示的方法,且首次学习词内部的形式。

你可能感兴趣的:(深度学习神经网络-NLP方向,神经网络论文研读,神经网络,深度学习,人工智能,python,神经网络,nlp)