通过HMM backforward 与viterbi 理解DP算法

http://www.cnblogs.com/tornadomeet/archive/2012/03/24/2415583.html

http://www.cnblogs.com/tornadomeet/archive/2012/03/24/2415889.html

http://blog.52nlp.org/hmm-learn-best-practices-six-viterbi-algorithm-1

自己的blog notebook


注意 evaluation task中的最优子结构是产生这个sub observation sequence的概率 对应局部变量a,前面的a加和

而 encoding task中的最优子结构是产生这个sub observation的 概率最大的latent state 概率,对应局部变量theta,前面的theta取max

你可能感兴趣的:(通过HMM backforward 与viterbi 理解DP算法)