中文自然语言处理--词向量Word2Vec

词向量就是要用某个固定维度的向量去表示单词。也就是说要把单词变成固定维度的向量,作为机器学习(Machine Learning)或深度学习模型的特征向量输入。

from gensim.models import Word2Vec
import jieba

# 先导入 Gensim 中的 Word2Vec 和 jieba 分词器,再引入黄河和长江的语料
# 定义停用词、标点符号
punctuation = [",", "。", ":", ";", ".", "'", '"', "’", "?", "/", "-", "+", "&", "(", ")"]
sentences = [
    "长江是中国第一大河,干流全长6397公里(以沱沱河为源),一般称6300公里。流域总面积一百八十余万平方公里,年平均入海水量约九千六百余亿立方米。以干流长度和入海水量论,长江均居世界第三位。",
    "黄河,中国古代也称河,发源于中华人民共和国青海省巴颜喀拉山脉,流经青海、四川、甘肃、宁夏、内蒙古、陕西、山西、河南、山东9个省区,最后于山东省东营垦利县注入渤海。干流河道全长5464千米,仅次于长江,为中国第二长河。黄河还是世界第五长河。",
    "黄河,是中华民族的母亲河。作为中华文明的发祥地,维系炎黄子孙的血脉.是中华民族民族精神与民族情感的象征。",
    "黄河被称为中华文明的母亲河。公元前2000多年华夏族在黄河领域的中原地区形成、繁衍。",
    "在兰州的“黄河第一桥”内蒙古托克托县河口镇以上的黄河河段为黄河上游。",
    "黄河上游根据河道特性的不同,又可分为河源段、峡谷段和冲积平原三部分。 ",
    "黄河,是中华民族的母亲河。"]

# 分词,去标点符号
sentences = [jieba.lcut(sen) for sen in sentences]
tokenized = []
for sentence in sentences:
    words = []
    for word in sentence:
        if word not in punctuation:
            words.append(word)
    tokenized.append(words)
print(tokenized)

# 训练
# 参数:
# sg=1 是 skip-gram 算法,对低频词敏感;默认 sg=0 为 CBOW 算法。
# size 是输出词向量的维数,值太小会导致词映射因为冲突而影响结果,值太大则会耗内存并使算法计算变慢,一般值取为100到200之间。
# window 是句子中当前词与目标词之间的最大距离,3表示在目标词前看3-b 个词,后面看 b 个词(b 在0-3之间随机)。
# min_count 是对词进行过滤,频率小于 min-count 的单词则会被忽视,默认值为5。
# negative 和 sample 可根据训练结果进行微调,sample 表示更高频率的词被随机下采样到所设置的阈值,默认值为 1e-3。
# hs=1 表示层级 softmax 将会被使用,默认 hs=0 且 negative 不为0,则负采样将会被选择使用。
model = Word2Vec(tokenized, sg=1, size=100, window=5, min_count=2, negative=1, sample=0.001, hs=1, workers=4)

# 训练后的模型可以保存与加载:
model.save('model')  # 保存模型
model = Word2Vec.load('model')  # 加载模型

# 模型训练好之后,接下来就可以使用模型,可以用来计算句子或者词的相似性、最大匹配程度等。
print(model.similarity('黄河', '黄河'))
print(model.similarity('黄河', '长江'))

# 预测与黄河和母亲河最接近,而与长江不接近的词
print(model.most_similar(positive=['黄河', '母亲河'], negative=['长江']))

原文:
https://soyoger.blog.csdn.net/article/details/108729409

你可能感兴趣的:(中文自然语言处理,python,中文自然语言处理,词向量)