深度学习-自注意力机制

文字编码

one-hot编码,让模型自己去学习怎么进行编码

深度学习-自注意力机制_第1张图片常见的输出

1.每个词都有一个输出值

深度学习-自注意力机制_第2张图片2.每个句子输出一个值,情感分类

深度学习-自注意力机制_第3张图片3.输入与输出长度不对应,翻译任务,生成任务。

深度学习-自注意力机制_第4张图片RNN最早的语言处理

RNN解决的是模型去考虑前面的输入

深度学习-自注意力机制_第5张图片深度学习-自注意力机制_第6张图片      RNN的缺点,每一代都要向传家宝中装东西,导致后面看不到祖先。

深度学习-自注意力机制_第7张图片

长短期记忆(LSTM,long short-term memory)

深度学习-自注意力机制_第8张图片RNN与LSTM速度很慢,需要一代一代,无法一下生成全部。所以引入了自注意力机制。

深度学习-自注意力机制_第9张图片

自注意力机制的原理:

深度学习-自注意力机制_第10张图片

什么是注意力,分配给每个任务的注意力,注意力的高低是自己决定的。

深度学习-自注意力机制_第11张图片注意力分配

深度学习-自注意力机制_第12张图片

如何计算注意力?

在不同的句子中,注意力应该不同,并且模型要有学习设置注意力的能力。因此采用点乘的方式。

深度学习-自注意力机制_第13张图片

加了wq,wk得到的矩阵。

深度学习-自注意力机制_第14张图片

深度学习-自注意力机制_第15张图片得到a1对其他的注意力分数。

深度学习-自注意力机制_第16张图片利用soft-max对分数进行归一化,化为合为1的概率。

深度学习-自注意力机制_第17张图片深度学习-自注意力机制_第18张图片深度学习-自注意力机制_第19张图片b1的生成过程:a1矩阵化为q(通过wq),利用这个q与其他(a2、a3、a4)生成的w分别进行点乘,生成a1.1、a1.2、a1.3、a1.4。再讲a1、a2、a3、a4的value与a1.1、a1.2、a1.3、a1.4相乘。成绩和为b1。

总结过程为:

深度学习-自注意力机制_第20张图片

总公式可以表示为:

深度学习-自注意力机制_第21张图片

A:注意力矩阵。

深度学习-自注意力机制_第22张图片

深度学习-自注意力机制_第23张图片Wq 和 Wk、Wv是学习到的权重矩阵

 bert,该图左侧部分构成了bert。右边为提取特征,然后再生成,即为GPT

深度学习-自注意力机制_第24张图片

bert就是一个特征提取器。

1.预训练

2.微调

深度学习-自注意力机制_第25张图片 

自监督预训练

深度学习-自注意力机制_第26张图片 

Bert结构

1.embedding

2.多层自注意力机制

3.池化输出

  深度学习-自注意力机制_第27张图片

Bert的输出

深度学习-自注意力机制_第28张图片 

EA,EB为给句子的编码

CLS相当于链表头,SEP相当于句号,句尾结束。 

深度学习-自注意力机制_第29张图片

深度学习-自注意力机制_第30张图片

你可能感兴趣的:(深度学习,人工智能)