Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)

文章目录

    • 1 为什么需要Alignment
    • 2 穷举所有的alignment
      • 2.1 HMM的对齐
      • 2.2 CTC的对齐
      • 2.3 RNN-T的对齐
    • 3 小结

本文为李弘毅老师【Speech Recognition - Alignment of HMM, CTC and RNN-T (optional)】的课程笔记,课程视频youtube地址,点这里(需)。

下文中用到的图片均来自于李宏毅老师的PPT,若有侵权,必定删除。

文章索引:

上篇 - 1-4 HMM

下篇 - 1-6 RNN-T Training

总目录

1 为什么需要Alignment

现在所有的seq2seq的模型forward的过程,从宏观上来讲,就是我们输入一个序列 X X X,可以输出产生任意序列 Y Y Y的概率。
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第1张图片

然后decode的时候,我们就是要找到一个序列 Y Y Y,使得 P ( Y ∣ X ) P(Y|X) P(YX)最大。在找这个序列的时候,一般不会穷举,而是通过Beam Search去做。

D e c o d i n g : Y ∗ = a r g m a x ⏟ Y l o g P ( Y ∣ X ) Decoding:Y^*= \underbrace{argmax}_Y logP(Y|X) Decoding:Y=Y argmaxlogP(YX)

像LAS这样的的输出中没有额外的符号的模型,其结果就直接是 P ( Y ∣ X ) P(Y|X) P(YX)了。比如上图要计算输出序列 a b ab ab的概率就是

P ( Y ∣ X ) = P ( a ∣ X ) P ( b ∣ a , X ) P ( < E O S > ∣ a b , X ) P(Y|X)=P(a|X)P(b|a,X)P(|ab,X) P(YX)=P(aX)P(ba,X)P(<EOS>ab,X)

如果有点忘了LAS的decoder是长什么样的话,可以看下面这幅图。
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第2张图片
在训练的时候,我们就希望训练出一组模型参数 θ \theta θ下,使得模型在decode的时候,得到标签 Y ^ \hat{Y} Y^的概率是最大的。

T r a i n i n g : a r g m a x ⏟ θ l o g P θ ( Y ^ ∣ X ) Training: \underbrace{argmax}_{\theta}logP_{\theta}(\hat{Y}|X) Training:θ argmaxlogPθ(Y^X)

以上的是模型输出符号都是字典里的字符的情况,但是,当用CTC或者RNN-T这样的模型时,我们的结果中是会出现 ϕ \phi ϕ这样的占位符的,那么就不能简单地直接计算 P ( Y ∣ X ) P(Y|X) P(YX)了。而HMM这样的模型,会需要去掉重复的字符,故也不能直接计算。
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第3张图片
这个时候,我们需要计算的是所有能够通过相应的对齐规则对齐到 Y Y Y的输出序列 h h h概率之和。

P ( Y ∣ X ) = ∑ h ∈ a l i g n ( Y ) P ( h ∣ X ) P(Y|X) = \sum_{h \in align(Y)}P(h|X) P(YX)=halign(Y)P(hX)

这就是我们要讲alignment的原因。

下文会讲到的如何穷举所有可能的alignment。也就是上面公式中 h ∈ a l i g n ( Y ) h \in align(Y) halign(Y)这个集合是怎么来的。

2 穷举所有的alignment

为了方便说明,我们假设现在输入的sequence长度为6,输出的sequence为"cat"。由于HMM,CTC和RNN-T对齐的规则有所不同,故他们在找 h ∈ a l i g n ( Y ) h \in align(Y) halign(Y)这个集合的时候,也会有些不同。
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第4张图片

2.1 HMM的对齐

HMM的对齐规则为:

  • 去掉所有的相邻重复字符

所以,HMM在找 h ∈ a l i g n ( Y ) h \in align(Y) halign(Y)的时候,就是在"cat"的基础上,加入重复的字符,使得序列的长度等于 T = 6 T=6 T=6。写成演算法的话,就是下图中灰色方框里这样。比如我们的目标是"cat",那么 N = 3 N=3 N=3,然后我们从"c"开始选择重复一次或者多次,接着再去重复"a"和"t",我们需要保证所有的字符都至少出现一次,且它们出现的次数之和为输入序列的长度 T T T
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第5张图片

HMM要找的所有alignment都可以画在一个表格当中。这个表格的起点为左上角的橘黄色的点,终点为右下角蓝色的点。往右下方走,表示选择下一个token,往正右方走,表示重复一个token。我们要在保证每次只能往右下或者正右的情况下,从橘点走到蓝点。每一种走法的路径,就是一个alignment。

2.2 CTC的对齐

CTC的对齐规则为:

  • 首先合并所有的相邻重复字符
  • 然后去除掉所有的 ϕ \phi ϕ

所以,CTC在找 h ∈ a l i g n ( Y ) h \in align(Y) halign(Y)的时候,就是在"cat"的基础上,加入重复的字符和 ϕ \phi ϕ,使得序列的长度等于 T = 6 T=6 T=6。写成演算法的话,就是下图中灰色方框里这样。比如我们的目标是"cat",那么 N = 3 N=3 N=3,然后我们从"c"或者“ ϕ \phi ϕ”开始选择重复一次或者多次,接着再去重复"a"," ϕ \phi ϕ“和"t”," ϕ \phi ϕ",我们需要保证所有的字符都至少出现一次," ϕ \phi ϕ“可以出现也可不出现,且字符和” ϕ \phi ϕ"出现的次数之和为输入序列的长度 T T T

Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第6张图片
CTC要找的所有alignment同样也可以画在一个表格当中。这个表格的起点为左上角的橘黄色的点,终点有两个,为右下角蓝色的点。

第一步,我们可以选择字符或者“ ϕ \phi ϕ”;如果选择了字符"c",那么接下来可以有3种选择,分别是往正右重复,往右下对角插入一个" ϕ \phi ϕ",往右下走马步插入字符"a"。
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第7张图片
如果我们选择的是" ϕ \phi ϕ",那么我们就只有2种选择,分别是往正右重复" ϕ \phi ϕ“或者往右下对角插入字符"c”。这个时候,是不能走右下马步重复 ϕ \phi ϕ的。
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第8张图片
总结一下,就是在" ϕ \phi ϕ"行的时候,有正右或者右下对角2种选择,在字符行的时候,有正右或者右下对角或者右下马步3种选择。
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第9张图片
还有一种特殊情况需要注意的是,如果走右下角马步得到的字符和当前字符是相同的时候,不同走右下角马步。
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第10张图片
基于以上的这些规则,从橘点走到右下脚两个蓝点中的任意一个所经过的路径都是一个合理的alignment。
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第11张图片

2.3 RNN-T的对齐

RNN-T的对齐规则为:

  • 去除掉所有的 ϕ \phi ϕ

所以,RNN-T在找 h ∈ a l i g n ( Y ) h \in align(Y) halign(Y)的时候,就是在"cat"的基础上,加入 T = 6 T=6 T=6 ϕ \phi ϕ。写成演算法的话,就是下图中灰色方框里这样。我们在每个字符之间都可以插入数量不等的" ϕ \phi ϕ",但是末尾至少要有1个" ϕ \phi ϕ",然后所有" ϕ \phi ϕ“的个数之和为 T = 6 T=6 T=6
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第12张图片
RNN-T要找的所有alignment同样也可以画在一个表格当中,不过这个表格和之前的有所不同。这个表格的起点为左上角的蓝色的点,终点为右下角蓝色的点。每往正右走一步就是插入一个” ϕ \phi ϕ",每往正下走一步就是插入一个字符,直到走到右下角的蓝点,所经过的路径都是一个合理的alignment。
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第13张图片

3 小结

HMM、CTC和RNN-T都可以用如下图所示的HMM专用的状态转移图来表示。其实也就是上文所述的东西,我觉得就算不看下面这个图也无所谓,所以这里就不讲了。
Chapter1-5_Speech_Recognition(Alignment of HMM, CTC and RNN-T)_第14张图片

你可能感兴趣的:(课程笔记-李宏毅,自然语言处理,神经网络,深度学习,李弘毅)