预训练完成的 公开的 经典 词向量 模型【GloVe、fastText、ELMo、BERT】

      根据徐老师最新讲解论文使用的四种公开语言模型 ,经过本人上网查找,现将各预训练好的模型下载地址整合如下:

预训练完成的 公开的 经典 词向量 模型【GloVe、fastText、ELMo、BERT】_第1张图片

Global Vectors(GloVe):2014年, 1*300dim     glove.840B.300d.txt:2196017个单词 

fastText:crawl-300d-2M-subword.vec:2000000个单词

fastText:2018年,  1*300dim

Embedding from Language Models(ElMo):2018年, 3*1024 

Bidirectional Encoder Representations from Transformers(BERT):2018年, 24*768

链接1:https://www.infoq.cn/article/1fu*vYWCD8PlIartPZYV

链接2:https://www.jianshu.com/p/5c715577a3f5

链接3(如何使用):https://www.cnblogs.com/jiangxinyang/p/10241243.html

https://blog.csdn.net/leyounger/article/details/79343404

你可能感兴趣的:(预训练完成的 公开的 经典 词向量 模型【GloVe、fastText、ELMo、BERT】)