建议收藏,加深印象【注意力机制的本质】Self-Attention,Transformer,q k v 向量(矩阵)。query,key,value。

声明:仅学习使用~

:参考文献(出处),在末尾均已经指出~

在此之前,曾记录:

【DETR目标检测】关键词:Decoder。Encoder。query向量。注意力机制。

你可能感兴趣的:(transformer,Self-Attention,QKV矩阵,注意力机制的本质,人工智能)