文档排重之SimHash算法

不同网站间相互转载内容的情况非常常见,即使同一网站,不同的URL地址也可能对应相同内容,只是以不同的形式显示出来(不同的UI),而我们在爬取大量内容时,除了靠URL去重外,还需按文档内容排重

指纹可以判断人的身份,比如侦探把从犯罪现场采集的指纹与指纹库中的指纹做个对比,就能确定犯罪嫌疑人的身份。类似的,我们用一个文档的语义指纹来代表文档的语义,如采用一个二进制数组来代表。从而判断文档之间的相似性转化为判断两个语义指纹之间的相似性。

SimHash是Google在2007年发表的论文《Detecting Near-Duplicates for Web Crawling 》中提到的一种指纹生成算法或者叫指纹提取算法,被Google广泛应用在亿级的网页去重的Job中,作为locality sensitive hash(局部敏感哈希)的一种,其主要思想是降维,即将一篇若干数量的文本内容用一个长度较短的数组来表示,而这个数组与这篇文档的主要的特征所对应。如在没有犯罪嫌疑人的身份证和指纹时,一个人的特征有无数多个,而我们可以通过调查犯罪嫌疑人的姓名,性别,出生日期,身高,体重,当天穿的衣服,外貌等一些主要特征来甄别嫌疑人的身份。simhash也是将复杂的特征,降维来简化。

SimHash计算过程:


文档排重之SimHash算法_第1张图片
simhash计算流程

1.对文档提取特征及特征对应的权重

2.对特征进行hash,生成对应的hash值

3.hash值加权:对特征hash值的每一位做循环处理:如果该位值为1,则用weight代替,否则,用-weight代替

4.求和:将特征hash加权后的结果,按位求和,然后将结果按位二值化:大于0则为1,否则为0,即得到最后的SimHash值。

SimHash的计算依据是要比较的对象的特征,对于结构化的记录,可以按列提取特征;对于非结构化的文档,特征可以用全文提取topk关键词、标题、最长的几句话、每段的首句、尾句等。


import jieba

import jieba.analyse as analyse

import numpy as np



class SimHash(object):

    def __init__(self, content, topK=50):

        self.topK = topK

        self.simhash = self.getSimHash(content)



    def getSimHash(self, content):

        seg = jieba.cut(content)

#        jieba.analyse.set_stop_words('stopword.txt')

        #topk words and it's tf/idf

        keyWords = jieba.analyse.extract_tags(

            '|'.join(seg), topK=self.topK, withWeight=True, allowPOS=())

#        print(keyWords)

        word_list = []

        for feature, weight in keyWords:

            feature = self.string_hash(feature)

            temp = []

            for i in feature:

                if i == '1':

                    temp.append(weight)

                else:

                    temp.append(-weight)

            word_list.append(temp)

        hashSum = np.sum(np.array(word_list), axis=0)

        simhash = ''

        for code in hashSum:

            if code > 0:

                simhash += '1'

            else:

                simhash += '0'

        return simhash



    def string_hash(self,source):

        if source == "":

            return 0

        else:

            x = ord(source[0]) << 7

            m = 1000003

            mask = 2 ** 128 - 1

            for c in source:

                x = ((x * m) ^ ord(c)) & mask

            x ^= len(source)

            if x == -1:

                x = -2

            x = bin(x).replace('0b', '').zfill(64)[-64:]

#            print(source,x)

            return x

得到文档的SimHash值后,我们还需要判断两个文档是否相似。对相同长度的数字序列,我们采用海明距离来衡量其相似性。海明距离是指两个码字对应比特位(数字序列对应位置)不同的比特位个数。如1011101和1001001的第三位和第五位有差别,所以对应的海明距离为2。

计算两个数的海明距离时,我们先把两个数按位异或(XOR),然后计算结果中1的个数,结果就是海明距离。


def hamDis(l1, l2):

    #异或

    lxor = int(l1,2) ^ int(l2,2)

    c = 0

    #计算异或结果1的个数

    while(lxor):

        lxor &= lxor-1

        c += 1

    return c

把文档转化成SimHash后,文档的排重就变成了海明距离计算问题:给出一个f位的语义指纹集合F和一个语义指纹fg,找出F中是否存在与fg只有k位差异的语义指纹。
当k值很小而要找的语义指纹集合中的元素不多时,可以用逐次探查法:先把所有和当前指纹差k位的指纹扩展出来,然后用折半查找法在排好序的指纹集合中查找;
如果是面对的是海量的数据,且动态的增加,逐次探查法的效率将越来越慢。当k值较小,如不大于3时,我们使用一种快速方法。首先,我们将64位分成4份,当k为3时,则有一份中两者相等。


文档排重之SimHash算法_第2张图片

所以我们在存储时,将数据扩展为4份,每份以其中16位为k,剩余的部分为v,查找时精确匹配这16位。


文档排重之SimHash算法_第3张图片

除此之外,对于一个已经排序的容量为2**d的f位指纹集合,由于指纹集合中有很多的位组合存在,所以高d位只有少量重复存在,所以在搜索时,也可以找出高d位与当前指纹相同的集合f‘,缩小查找份范围。

Simhash算法对长文本500字+比较适用,短文本可能偏差较大,最后使用海明距离,求相似,在google的论文给出的数据中,64位的签名,在海明距离为3的情况下,可认为两篇文档是相似的或者是重复的,当然这个值只是参考值,针对自己的应用可以自测取值。

你可能感兴趣的:(文档排重之SimHash算法)