268G+训练好的word2vec模型(中文词向量)

268G+训练好的word2vec模型(

  从网上了解到,很多人缺少大语料训练的word2vec模型,在此分享下使用268G+语料训练好的word2vec模型。

训练语料

  • 百度百科800w+条,26G+
  • 搜狐新闻400w+条,13G+
  • 小说:229G+
268G+训练好的word2vec模型(中文词向量)_第1张图片
image.png

模型参数

  • window=5
  • min_count=10
  • size=128
  • hs=1
  • negative=0
  • iter=5
  • ps:其它参数见gensim库,执行代码为:gensim.models.Word2Vec(sentence, window=5, min_count=10, size=128, workers=4,hs=1, negative=0, iter=5)

其它相关

  1. 分词词典使用了130w+词典。分词代码:jieba.lcut(sentence),默认使用了HMM识别新词;
  2. 剔除了所有非中文字符;
  3. 最终得到的词典大小为6115353;
  4. 模型格式有两种bin和model,使用方式:
    a. bin模式:model = gensim.models.KeyedVectors.load_word2vec_format(model_path, binary=True)
    b. model模式:model = gensim.models.Word2Vec.load(model_path)
  5. 文件压缩后大小与未压缩相近,因此未压缩。

下载链接
链接:https://pan.baidu.com/s/1ckkH_eT-WS4SN73Iq9Q_5A 密码:9aza

中文词向量)

你可能感兴趣的:(ppython,自然语言处理,深度学习,word2vec,gensim,词向量)