Glove学习笔记

global vectors for word representation

B站学习视频

1、LSA与word2vec

Glove学习笔记_第1张图片
Glove学习笔记_第2张图片
我们用我们的见解,构建一个新的模型,Glove,全局向量的词表示,因为这个模型捕捉到全局预料的统计信息。

Glove学习笔记_第3张图片

  • LSA:全局矩阵分解
  • word2vec:局部上下文窗口(词语类比)

Glove学习笔记_第4张图片
Glove学习笔记_第5张图片
LSA构建的是词语与文档的共现矩阵。
Glove学习笔记_第6张图片

  • SVD:奇异值分解

Glove学习笔记_第7张图片

2、Glove

Glove学习笔记_第8张图片
glove将词语分为中心词和上下文词,统计两者共同出现的次数。范围限制,窗口为1。
Glove学习笔记_第9张图片
Glove学习笔记_第10张图片
窗口大小为2,表示中心词前后大小为2的区域的词语才与中心词有共现关系,窗口之外的词语就不能称之为共现。
共现矩阵X为对称矩阵,共现次数和权重递减函数的乘积,从而达到距离越远的共现词对权重小,距离越近的共现词对权重大。
Glove学习笔记_第11张图片

  • Xi:中心词语i总共出现的次数

Glove学习笔记_第12张图片
Glove学习笔记_第13张图片

Glove学习笔记_第14张图片
概率之间的比值更能捕捉词语之间的相关和不相关关系。
具体推导过程:
Glove学习笔记_第15张图片
Glove学习笔记_第16张图片

在这里插入图片描述
在这里插入图片描述
系列推导后得到最终方程:
在这里插入图片描述
模型的代价(损失)函数:
在这里插入图片描述
权重函数:

在这里插入图片描述

Glove学习笔记_第17张图片
Glove学习笔记_第18张图片
Glove学习笔记_第19张图片
Glove学习笔记_第20张图片
Glove学习笔记_第21张图片
通过视频中的讲解主要了解共现矩阵及词向量损失函数推导过程及代码的使用!

你可能感兴趣的:(vqa,学习,笔记)