Recurrent Neural Network Based Language Model(RNNLM)原理及BPTT数学推导
参考文献:1.StatisticalLanguageModelsBasedonNeuralNetworks2.Aguidetorecurrentneuralnetworksandbackpropagation前一篇文章介绍了nnlm,用神经网络来对语言进行建模,nnlm一个很大的优点就是将历史映射到一个低维的空间而并不像普通n-gram,这就降低了模型的参数,并且使相似的历史进行聚类,映射后的低维