1401 位置编码公式详细理解补充

博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看
配套 github 链接:https://github.com/nickchen121/Pre-training-language-model
配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html

Self-Attention:对于每个词而言都是无位置关系,把每个词的顺序打乱,得到的注意力值依然不变

通过 t1 告诉你,x1 是在前面,x2 在 x1 的后面

位置编码

1401 位置编码公式详细理解补充_第1张图片

位置编码公式

1401 位置编码公式详细理解补充_第2张图片

你可能感兴趣的:(数字孪生,管理体系,大语言模型,transformer,深度学习,人工智能)