使用余弦相似度算法计算文本相似度-数学

20211201

也就是效果 皮尔逊>余弦>欧式
使用余弦相似度算法计算文本相似度-数学_第1张图片余弦相似度的局限

使用余弦相似度算法计算文本相似度-数学_第2张图片皮尔逊的优势,相当于是改进版余弦相似度
使用余弦相似度算法计算文本相似度-数学_第3张图片欧式与 余弦
欧式侧重于直线距离
归一化之后的欧式和余弦的效果也不同
比如 0,1 和 1,0

tfidf用余弦相似度就足够,因为对在不同文档中相同的词的打分是一视同仁的

使用余弦相似度算法计算文本相似度

        
        
在工作中一直使用余弦相似度算法计算两段文本的相似度和两个用户的相似度。一直弄不明白多维的余弦相似度公式是怎么推导来的。今天终于花费时间把公式推导出来,其实很简单,都是高中学过的知识,只是很多年没用了,都还给老师了。本文还通过一个例子演示如果使用余弦相似度计算两段文本的相似度。
余弦函数在三角形中的计算公式为:
在直角坐标系中,向量表示的三角形的余弦函数是怎么样的呢?下图中向量a用坐标(x1,y1)表示,向量b用坐标(x2,y2)表示。
向量a和向量b在直角坐标中的长度为 向量a和向量b之间的距离我们用向量c表示,就是上图中的黄色直线,那么向量c在直角坐标系中的长度为 ,将a,b,c带入三角函数的公式中得到如下的公式:
  使用余弦相似度算法计算文本相似度-数学_第4张图片
这是2维空间中余弦函数的公式,那么多维空间余弦函数的公式就是:
  使用余弦相似度算法计算文本相似度-数学_第5张图片
余弦相似度
余弦相似度量:计算个体间的相似度。
相似度越小,距离越大。相似度越大,距离越小。
假设有3个物品,item1,item2和item3,用向量表示分别为:
item1[1,1,0,0,1],
item2[0,0,1,2,1],
item3[0,0,1,2,0],
即五维空间中的3个点。用欧式距离公式计算item1、itme2之间的距离,以及item2和item3之间的距离,分别是:
item1-item2=
item2-item3=
用余弦函数计算item1和item2夹角间的余弦值为:
用余弦函数计算item2和item3夹角间的余弦值为:
由此可得出item1和item2相似度小,两个之间的距离大(距离为7),item2和itme3相似度大,两者之间的距离小(距离为1)。
 
余弦相似度算法:一个向量空间中两个向量夹角间的余弦值作为衡量两个个体之间差异的大小,余弦值接近1,夹角趋于0,表明两个向量越相似,余弦值接近于0,夹角趋于90度,表明两个向量越不相似。
 
余弦相似度
余弦相似度量:计算个体间的相似度。
相似度越小,距离越大。相似度越大,距离越小。
 
余弦相似度算法:一个向量空间中两个向量夹角间的余弦值作为衡量两个个体之间差异的大小,余弦值接近1,夹角趋于0,表明两个向量越相似,余弦值接近于0,夹角趋于90度,表明两个向量越不相似。
 
下面我们介绍使用余弦相似度计算两段文本的相似度。思路:1、分词;2、列出所有词;3、分词编码;4、词频向量化;5、套用余弦函数计量两个句子的相似度。
 
句子A:这只皮靴号码大了。那只号码合适。
句子B:这只皮靴号码不小,那只更合适。
1、分词:
使用结巴分词对上面两个句子分词后,分别得到两个列表:
listA=[‘这‘, ‘只‘, ‘皮靴‘, ‘号码‘, ‘大‘, ‘了‘, ‘那‘, ‘只‘, ‘号码‘, ‘合适‘]
listB=[‘这‘, ‘只‘, ‘皮靴‘, ‘号码‘, ‘不小‘, ‘那‘, ‘只‘, ‘更合‘, ‘合适‘]
 
2、列出所有词,将listA和listB放在一个set中,得到:
set={'不小', '了', '合适', '那', '只', '皮靴', '更合', '号码', '这', '大'}
将上述set转换为dict,key为set中的词,value为set中词出现的位置,即‘这’:1这样的形式。
dict1={'不小': 0, '了': 1, '合适': 2, '那': 3, '只': 4, '皮靴': 5, '更合': 6, '号码': 7, '这': 8, '大': 9},可以看出“不小”这个词在set中排第1,下标为0。
 
3、将listA和listB进行编码,将每个字转换为出现在set中的位置,转换后为:
listAcode=[8, 4, 5, 7, 9, 1, 3, 4, 7, 2]
listBcode=[8, 4, 5, 7, 0, 3, 4, 6, 2]
我们来分析listAcode,结合dict1,可以看到8对应的字是“这”,4对应的字是“只”,9对应的字是“大”,就是句子A和句子B转换为用数字来表示。
 
4、对listAcode和listBcode进行oneHot编码,就是计算每个分词出现的次数。oneHot编号后得到的结果如下:
listAcodeOneHot = [0, 1, 1, 1, 2, 1, 0, 2, 1, 1]
listBcodeOneHot = [1, 0, 1, 1, 2, 1, 1, 1, 1, 0]
下图总结了句子从分词,列出所有词,对分词进行编码,计算词频的过程
5、得出两个句子的词频向量之后,就变成了计算两个向量之间夹角的余弦值,值越大相似度越高。
listAcodeOneHot = [0, 1, 1, 1, 2, 1, 0, 2, 1, 1]
listBcodeOneHot = [1, 0, 1, 1, 2, 1, 1, 1, 1, 0]
根据余弦相似度,句子A和句子B相似度很高。
 
代码如下:
复制代码
 1 import jieba
 2 import math
 3 s1 = '这只皮靴号码大了。那只号码合适'
 4 s1_cut = [i for i in jieba.cut(s1, cut_all=True) if i != '']
 5 s2 = '这只皮靴号码不小,那只更合适'
 6 s2_cut = [i for i in jieba.cut(s2, cut_all=True) if i != '']
 7 print(s1_cut)
 8 print(s2_cut)
 9 word_set = set(s1_cut).union(set(s2_cut))
10 print(word_set)
11 
12 word_dict = dict()
13 i = 0
14 for word in word_set:
15     word_dict[word] = i
16     i += 1
17 print(word_dict)
18 
19 s1_cut_code = [word_dict[word] for word in s1_cut]
20 print(s1_cut_code)
21 s1_cut_code = [0]*len(word_dict)
22 
23 for word in s1_cut:
24     s1_cut_code[word_dict[word]]+=1
25 print(s1_cut_code)
26 
27 s2_cut_code = [word_dict[word] for word in s2_cut]
28 print(s2_cut_code)
29 s2_cut_code = [0]*len(word_dict)
30 for word in s2_cut:
31     s2_cut_code[word_dict[word]]+=1
32 print(s2_cut_code)
33 
34 # 计算余弦相似度
35 sum = 0
36 sq1 = 0
37 sq2 = 0
38 for i in range(len(s1_cut_code)):
39     sum += s1_cut_code[i] * s2_cut_code[i]
40     sq1 += pow(s1_cut_code[i], 2)
41     sq2 += pow(s2_cut_code[i], 2)
42 
43 try:
44     result = round(float(sum) / (math.sqrt(sq1) * math.sqrt(sq2)), 2)
45 except ZeroDivisionError:
46     result = 0.0
47 print(result)
复制代码

 

 
总结,例子很简单,只是比较短短两句话的相似度,算是机器学习入门的一个小案例。可以看到这是使用机器学习算法处理业务的通用步骤,先是取特征,然后特征向量化,最后代入数学公式中。
 
欢迎关注本人的公众号: python_ai_bigdata,了解更多关于大数据和机器学习的知识。
 

你可能感兴趣的:(数据仓库,sql,python)