序列模型与注意力机制总结

1.翻译即有条件的语言模型

序列模型与注意力机制总结_第1张图片

2.1beam search  参数B

序列模型与注意力机制总结_第2张图片

2.2  beam search 的 概率表达式

序列模型与注意力机制总结_第3张图片

2.3 在扩展一次

序列模型与注意力机制总结_第4张图片

 

3.beam search 改进,

修改评价函数为 log,同时做normalization时,增加一个超参。

序列模型与注意力机制总结_第5张图片

4.Beam width B

序列模型与注意力机制总结_第6张图片

5. 误差分析

比较 beam search 跟 rnn 引起误差的比例

序列模型与注意力机制总结_第7张图片

6.Bleu score

序列模型与注意力机制总结_第8张图片序列模型与注意力机制总结_第9张图片

 

序列模型与注意力机制总结_第10张图片

7.1注意力模型,即增加跟距离有关的weight矩阵。(增加词距的影响)

weight 会受到 双向 a以及前一个s的影响。

序列模型与注意力机制总结_第11张图片

7.2weight公式

序列模型与注意力机制总结_第12张图片

7.3

序列模型与注意力机制总结_第13张图片

8.CTC

序列模型与注意力机制总结_第14张图片

 

9.改善0跟1标签 分布不均匀的方式。

序列模型与注意力机制总结_第15张图片

 

 

你可能感兴趣的:(序列模型与注意力机制总结)