【Transformer】Transformer and BERT(1)

【Transformer】Transformer and BERT(1)_第1张图片

文章目录

  • Transformer
  • BERT

太…完整了!同济大佬唐宇迪博士终于把【Transformer】入门到精通全套课程分享出来了,最新前沿方向

学习笔记

Transformer

【Transformer】Transformer and BERT(1)_第2张图片

【Transformer】Transformer and BERT(1)_第3张图片

【Transformer】Transformer and BERT(1)_第4张图片
无法并行,层数比较少

【Transformer】Transformer and BERT(1)_第5张图片
【Transformer】Transformer and BERT(1)_第6张图片
词向量生成之后,不会变,没有结合语境信息的情况下,存在一词多义,无法处理

【Transformer】Transformer and BERT(1)_第7张图片
词如何编码成向量

【Transformer】Transformer and BERT(1)_第8张图片
【Transformer】Transformer and BERT(1)_第9张图片
第一句话中,it 和 animal 的相应最高

【Transformer】Transformer and BERT(1)_第10张图片

【Transformer】Transformer and BERT(1)_第11张图片

【Transformer】Transformer and BERT(1)_第12张图片
内积,正交的话内积为0,越相近(相关),内积越大

在这里插入图片描述
【Transformer】Transformer and BERT(1)_第13张图片

d k \sqrt{d_k} dk 的目的,向量维度越大,内积也越大, d k \sqrt{d_k} dk 起到 scale 的作用

【Transformer】Transformer and BERT(1)_第14张图片
对于每个输入 x1 … xn, 计算一样的,可以并行为一个矩阵乘法

【Transformer】Transformer and BERT(1)_第15张图片
多头类比多个卷积核,来提取多种特征

【Transformer】Transformer and BERT(1)_第16张图片
【Transformer】Transformer and BERT(1)_第17张图片
【Transformer】Transformer and BERT(1)_第18张图片
不同的头得到的特征表达也不相同
【Transformer】Transformer and BERT(1)_第19张图片
多头包含在了 self-attention 中了

【Transformer】Transformer and BERT(1)_第20张图片
引入位置编码,形式有很多,比如 one-hot,原文中作者使用的是周期性信号进行编码

【Transformer】Transformer and BERT(1)_第21张图片
layer normalization 和 residual structure

【Transformer】Transformer and BERT(1)_第22张图片
【Transformer】Transformer and BERT(1)_第23张图片

encoder-decoder attention,encoder 的 K,V,decoder 的 Q

【Transformer】Transformer and BERT(1)_第24张图片
mask 机制:以翻译为例,不能透答案了,翻译到 I am a 的时候,student 要被 mask 起来,只能计算 I am a 的注意力

不能用后面未知的结果当成已知的条件

【Transformer】Transformer and BERT(1)_第25张图片

【Transformer】Transformer and BERT(1)_第26张图片

【Transformer】Transformer and BERT(1)_第27张图片

BERT

【Transformer】Transformer and BERT(1)_第28张图片
【Transformer】Transformer and BERT(1)_第29张图片
语料
【Transformer】Transformer and BERT(1)_第30张图片
预测出 mask,来训练提升特征编码能力

【Transformer】Transformer and BERT(1)_第31张图片
【Transformer】Transformer and BERT(1)_第32张图片
end-to-end 的形式,词编码表达和 task 一起训练

【Transformer】Transformer and BERT(1)_第33张图片
【Transformer】Transformer and BERT(1)_第34张图片
答案 d2->d3

你可能感兴趣的:(CNN,/,Transformer,transformer,bert,深度学习)