注意力机制Q K V

https://zhuanlan.zhihu.com/p/67115572

要点:

在模型训练好后,根据attention矩阵,我们就可以得到源语言和目标语言的对齐矩阵了

通过设计一个函数将目标模块mt和源模块ms联系起来,然后通过一个soft函数将其归一化得到概率分布。

https://www.cnblogs.com/tectal/p/10796922.html

 

你可能感兴趣的:(NLP)