自然语言处理与词嵌入-吴恩达深度学习笔记

文章目录

    • 自然语言处理与词嵌入
      • 词汇表征(Word Representation)
        • Visualizing word embeddings——t-SNE算法
        • Properties of Word Embeddings——Cosine similarity
        • Embedding matrix
      • 学习词嵌入(Learning Word Embeddings)
        • Word2Vec
          • Skip-Gram模型
          • 负采样(Negative Sampling)
        • GloVe 词向量(GloVe Word Vectors)
      • 情感分类(Sentiment Classification)
        • 平均值运算-情感分类算法
        • RNN-情感分类算法
      • 词嵌入除偏(Debiasing Word Embeddings)

自然语言处理与词嵌入

词汇表征(Word Representation)

自然语言处理与词嵌入-吴恩达深度学习笔记_第1张图片

Visualizing word embeddings——t-SNE算法

自然语言处理与词嵌入-吴恩达深度学习笔记_第2张图片
自然语言处理与词嵌入-吴恩达深度学习笔记_第3张图片

Properties of Word Embeddings——Cosine similarity

自然语言处理与词嵌入-吴恩达深度学习笔记_第4张图片
自然语言处理与词嵌入-吴恩达深度学习笔记_第5张图片

Embedding matrix

自然语言处理与词嵌入-吴恩达深度学习笔记_第6张图片

学习词嵌入(Learning Word Embeddings)

Word2Vec

自然语言处理与词嵌入-吴恩达深度学习笔记_第7张图片

Skip-Gram模型

自然语言处理与词嵌入-吴恩达深度学习笔记_第8张图片
自然语言处理与词嵌入-吴恩达深度学习笔记_第9张图片

负采样(Negative Sampling)

将多分类问题转化成若干个(较少的)二分类问题,负采样根据如下分布随机采样: P ( w i ) = f ( w i ) 3 4 ∑ j = 1 10 , 000 f ( w j ) 3 4 P\left(w_{i}\right)=\frac{f\left(w_{i}\right)^{\frac{3}{4}}}{\sum_{j=1}^{10,000} f\left(w_{j}\right)^{\frac{3}{4}}} P(wi)=j=110,000f(wj)43f(wi)43

自然语言处理与词嵌入-吴恩达深度学习笔记_第10张图片
自然语言处理与词嵌入-吴恩达深度学习笔记_第11张图片

GloVe 词向量(GloVe Word Vectors)

自然语言处理与词嵌入-吴恩达深度学习笔记_第12张图片

算法思想
自然语言处理与词嵌入-吴恩达深度学习笔记_第13张图片

权重选取在这里插入图片描述

估计参数取均值
自然语言处理与词嵌入-吴恩达深度学习笔记_第14张图片

情感分类(Sentiment Classification)

平均值运算-情感分类算法

自然语言处理与词嵌入-吴恩达深度学习笔记_第15张图片

RNN-情感分类算法

自然语言处理与词嵌入-吴恩达深度学习笔记_第16张图片

词嵌入除偏(Debiasing Word Embeddings)

  1. 确定bias direction
  2. 去除偏差,使得其在bias轴的垂直方向,从而与bias无关
  3. 使得bias的元素点与原点的距离相同

自然语言处理与词嵌入-吴恩达深度学习笔记_第17张图片

你可能感兴趣的:(深度学习,深度学习,nlp,自然语言处理)