一文看懂自然语言处理语言模型 n-gram word-embedding CBOW Skip-gram word2vec glove解读
1.n-gram自己理解:n代表窗口长度,n-gram的思想就是先滑窗,然后统计频次,然后计算条件概率,你可以取前面n个的条件概率,不一定要取全部的,最后得到的是整个句子的一个概率,那这个概率可以代表句子的合理性。详情见:https://zhuanlan.zhihu.com/p/32829048如何利用n-gram作为额外的特征呢?例如:我爱北京天安门这样词就有各种组合了:它的一到三gram为:[