深度学习:Self-Attention与Multi-heads Attention详解

深度学习:Self-Attention与Multi-heads Attention详解

  • Introduction
  • Self - Attention
  • Multi-Head Attention
  • Position- Encoding

Introduction

Transformer 最初是由 Ashish Vaswani等人提出的一种用以完成机器翻译的 Seq2Seq 学习任务的全新网络结构,它完全基于注意力机制来实现从序列到序列的建模。相比于以往 NLP 模型中使用 RNN 或者编码-解码结构,其具有计算复杂度小、并行度高、容易学习长程依赖等优势。Transformer 网络结构如图 :
深度学习:Self-Attention与Multi-heads Attention详解_第1张图片

Self - Attention

我们在刚接触的Transformer的时候,首先遇到的难题是Self-attention这个模块:

深度学习:Self-Attention与Multi-heads Attention详解_第2张图片

从左下角看起,假设一个序列数据有x1、x2, 每个x是一个高维向量。然后通过fx,把 x Embedding成低维向量a1,a2,让后对a1,a2分别通过全连接层(对应的权重矩阵w)得到对应的q(query),k(key),v(value)。

首先简单的解释一下q k v的含义
这就要看一下self attention的整体架构如下图:

深度学习:Self-Attention与Multi-heads Attention详解_第3张图片

其中A为1个序列数据,a为序列数据的4个元素,每个a都是一个向量。a为input,b为output
,其中b1为a1考虑了整个序列数据的结果,也就是说a1会与a1,a2,a3,a4 计算一个attention score(也可以叫做相关性)。

那么如何计算这个attention score呢?
假设a1要与其它的元素(包括a1本身)计算相关性,那么q就是a1,k就是被计算相关性的元素。
计算方法有很多种,我们主要列举两种:
深度学习:Self-Attention与Multi-heads Attention详解_第4张图片

分为dot product 和 与 additive ,前者就是计算出q k后,做点乘(对应元素相乘在相加),然后得到q对所有k的相关性,然后经过softmax处理得到attention score,在大部分情况下我们都采用这种方法,后者则是做加法然后经过tanh激活得到。

我们得到一组attention score就表示q 与 各个k的相似性,分数越高,相关性越大,就会dominate 对应的输出结果b。之后把attention score与value相乘,然后把所有结果相加得到结果b。

举例来说 把序列A:={a1,a2}输入self attention模块, 得到 b1,b2,其中b1表示a1考虑了 整体输入的结果,也就是说在计算资源足够的情况下,这个架构不会因为序列过长而遗忘起始元素。

我们在看一下论文中的公式
在这里插入图片描述
这里只差根号dk没有解释过了,dk表示序列的长度,它的作用是为了防止数值过大,维持数值稳定性。

Multi-Head Attention

多头注意力与单头其实很相似,假设head为2,结构如下图:
深度学习:Self-Attention与Multi-heads Attention详解_第5张图片

假设q1 为(1,1,0,1),那么把均分为head个,把它们分配给每个head,

(实际是不同的head的所对应的q权重矩阵不同深度学习:Self-Attention与Multi-heads Attention详解_第6张图片

得到 q11,q 12,其中第一个下标代表序列元素的索引,第二个下标代表head。 k v重复刚才的操作,
然后把head数相同的放在一起计算:

深度学习:Self-Attention与Multi-heads Attention详解_第7张图片

然后对结果执行concat操作。

深度学习:Self-Attention与Multi-heads Attention详解_第8张图片

最后在乘上矩阵W_o融合不同维度特征,它的作用类似于1 * 1卷积。

Position- Encoding

方法为直接在input上 add 位置编码。

分为两种方法:

  1. 公式编码

深度学习:Self-Attention与Multi-heads Attention详解_第9张图片
2. 可训练的位置编码

你可能感兴趣的:(深度学习理论,深度学习,自然语言处理,人工智能)