【深度学习】【注意力机制】【自然语言处理】【图像识别】深度学习中的注意力机制详解、self-attention
1、深度学习的输入无论是我们的语言处理、还是图像处理等,我们的输入都可以看作是一个向量。通过Model最终输出结果。这里,我们的vector大小是不会改变的。然而,我们有可能会遇到这样的情况:输入的sequence的长度是不定的怎么处理?比如VectorSetasInput:句子:句子的词数不一定相同。声音信号:经过处理,把一段声音变成向量。图:每个节点转化为向量图:分子结构中的每个原子转化为on