用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇


[分词]

单机跑,耗时:   68分钟


[ 训练 ]

$ time ./word2vec -train /data/sogou/sohunews_segmented_1line.txt -output /data/sogou/vectors_sohunews.bin -cbow 0 -size 200 -window 5 -negative 0 -hs 1 -sample 1e-3 -threads 30 -binary 1
Starting training using file /data/sogou/sohunews_segmented_1line.txt
Vocab size: 575479   (非重复的词典单词个数 57 万)
Words in train file: 688085439     (数据文件词个数 6.8 亿)
线程数: 30

预计 12.8小时跑完。 

训练出来的文件: vectors.bin     450M


[ 数据来源 ]

ftp://ftp.labs.sogou.com/Data/SogouCS/SogouCS.tar.gz


[几个结果]

上图========> 

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第1张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第2张图片


用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第3张图片奇怪出来了一些数字串,这个与语料有关系,可以预处理

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第4张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第5张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第6张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第7张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第8张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第9张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第10张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第11张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第12张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第13张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第14张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第15张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第16张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第17张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第18张图片

用word2vec 跑搜狗SogouCS语料 - 大小4G | 6.8 亿词长 | 57万词汇_第19张图片


语料加大后,整体的效果还是好了很多,但是多出了一些奇怪的数字,这个在实用的时候需要对分词后结果做下清洗就行。 



你可能感兴趣的:(NLP,word2vec,corpus)