【Day1】恢复一下

seq2seq:

  1. (编码器)语音数据->进行编码为特征(高维度)
  2. (解码器)数字特征->文字对应的特征
  3. 需要编码全部完成,整个向量进行翻译

RNN:

  1. 有缺点,用1D的卷积更好
  2. 缺点:① 不能并行,效率低;②只能考虑前文,应当与前后文,尤其是较远的上下文有关;

attention(注意力机制):输入数据中的重点(权重分配)

加入attention的Seq2Seq

  1. L(编码器)A(权重)S(解码器)
  2. 内积表明两者关系相关程度,内积越大,越相关,再做个归一化
    【Day1】恢复一下_第1张图片
    图来自 网易云课堂-深度学习-语音识别实战(Python)-1-5

你可能感兴趣的:(自然语言处理-生成文本,语音识别,深度学习,机器学习)