【Attention Decoder的三种方式】

三种方式:
1、dot 方式: 直接做点积

2、general 方式:两个向量之间加入一个参数矩阵,可以训练得到。

3、concat 方式:两个向量做拼接 如下图所示:

【Attention Decoder的三种方式】_第1张图片

你可能感兴趣的:(深度学习,人工智能,python,深度学习)