17 Transformer 的解码器(Decoders)——我要生成一个又一个单词

Transformer 编码器

编码器在干吗:词向量、图片向量,总而言之,编码器就是让计算机能够更合理地(不确定性的)认识人类世界客观存在的一些东西

Transformer 解码器

解码器会接收编码器生成的词向量,然后通过这个词向量去生成翻译的结果。

17 Transformer 的解码器(Decoders)——我要生成一个又一个单词_第1张图片

解码器的 Self-Attention 在编码已经生成的单词

假如目标词“我是一个学生”—》masked Self-Attention

训练阶段:目标词“我是一个学生”是已知的,然后 Self-Attention 是对“我是一个学生” 做计算

如果不做 masked,每次训练阶段,都会获得全部的信息

如果做 masked,Self-Attention 第一次对“我”做计算

Self-Attention 第二次对“我是”做计算

……

测试阶段:

  1. 目标词未知,假设目标词是“我是一个学生”(未知),Self-Attention 第一次对“我”做计算
  2. 第二次对“我是”做计算
  3. ……

而测试阶段,没生成一点,获得一点

生成词

Linear 层转换成词表的维度

softmax 得到最大词的概率

softmax 细话

17 Transformer 的解码器(Decoders)——我要生成一个又一个单词_第2张图片

单词表

17 Transformer 的解码器(Decoders)——我要生成一个又一个单词_第3张图片

你可能感兴趣的:(管理体系,数据中台,数字孪生,transformer,深度学习,人工智能)