【DL】self-attention

目录

1 self-attention

2 Muti-head Self-attention

3 self-attention应用于图片

4 self-attention VS RNN

1 self-attention

【DL】self-attention_第1张图片

总结:

图1-1为由输入I、、Query、Key和Value过程的细化。

图1-2为由QKAttention Matrix过程的细化。

图1-3为由VAttention Matrix输出O过程的细化。

图1-4为所有运算过程的总结。

运算较复杂,但是只有、、是未知的,需要通过训练求得。

2 Muti-head Self-attention

【DL】self-attention_第2张图片

3 self-attention应用于图片

【DL】self-attention_第3张图片

总结:

图3-1中,可以看出一个5*10*3的彩色图像可以理解为5*10个向量的集合,因此self-attention能够应用到图像。

图3-2中,与CNN相比:self-attention是CNN的复杂版本,或者说CNN是简化版的self-attention。

4 self-attention VS RNN

【DL】self-attention_第4张图片

总结:

RNN不能平行处理所有的输出,而self-attention可以平行处理所有的输出。

以上截图均来自台大李宏毅老师的课程,仅作为学习用途,如有侵权,请联系作者删除。

你可能感兴趣的:(deep,learning,深度学习,人工智能)