`

海量数据相似度计算之simhash和海明距离

阅读更多

通过 采集系统 我们采集了大量文本数据,但是文本中有很多重复数据影响我们对于结果的分析。分析前我们需要对这些数据去除重复,如何选择和设计文本的去重算法?常见的有余弦夹角算法、欧式距离、Jaccard相似度、最长公共子串、编辑距离等。这些算法对于待比较的文本数据不多时还比较好用,如果我们的爬虫每天采集的数据以千万计算,我们如何对于这些海量千万级的数据进行高效的合并去重。最简单的做法是拿着待比较的文本和数据库中所有的文本比较一遍如果是重复的数据就标示为重复。看起来很简单,我们来做个测试,就拿最简单的两个数据使用Apache提供的 Levenshtein for 循环100w次计算这两个数据的相似度。代码结果如下:

1
2
3
4
5
6
7
8
9
10
11
12
            String s1 = "你妈妈喊你回家吃饭哦,回家罗回家罗" ;
            String s2 = "你妈妈叫你回家吃饭啦,回家罗回家罗" ;

            long t1 = System.currentTimeMillis();

            for (int i = 0; i < 1000000; i++) {
                   int dis = StringUtils .getLevenshteinDistance(s1, s2);
            }

            long t2 = System.currentTimeMillis();

            Systemout .println(" 耗费时间: " + (t2 - t1) + "  ms ");

耗费时间: 4266 ms

大跌眼镜,居然计算耗费4秒。假设我们一天需要比较100w次,光是比较100w次的数据是否重复就需要4s,就算4s一个文档,单线程一分钟才处理15个文档,一个小时才900个,一天也才21600个文档,这个数字和一天100w相差甚远,需要多少机器和资源才能解决。

为此我们需要一种应对于海量数据场景的去重方案,经过研究发现有种叫 local sensitive hash 局部敏感哈希 的东西,据说这玩意可以把文档降维到hash数字,数字两两计算运算量要小很多。查找很多文档后看到google对于网页去重使用的是simhash,他们每天需要处理的文档在亿级别,大大超过了我们现在文档的水平。既然老大哥也有类似的应用,我们也赶紧尝试下。simhash是由 Charikar 在2002年提出来的,参考 《Similarity estimation techniques from rounding algorithms》 。 介绍下这个算法主要原理,为了便于理解尽量不使用数学公式,分为这几步:

  • 1、分词,把需要判断文本分词形成这个文章的特征单词。最后形成去掉噪音词的单词序列并为每个词加上权重,我们假设权重分为5个级别(1~5)。比如:“ 美国“51区”雇员称内部有9架飞碟,曾看见灰色外星人 ” ==> 分词后为 “ 美国(4) 51区(5) 雇员(3) 称(1) 内部(2) 有(1) 9架(3) 飞碟(5) 曾(1) 看见(3) 灰色(4) 外星人(5)”,括号里是代表单词在整个句子里重要程度,数字越大越重要。

  • 2、hash,通过hash算法把每个词变成hash值,比如“美国”通过hash算法计算为 100101,“51区”通过hash算法计算为 101011。这样我们的字符串就变成了一串串数字,还记得文章开头说过的吗,要把文章变为数字计算才能提高相似度计算性能,现在是降维过程进行时。

  • 3、加权,通过 2步骤的hash生成结果,需要按照单词的权重形成加权数字串,比如“美国”的hash值为“100101”,通过加权计算为“4 -4 -4 4 -4 4”;“51区”的hash值为“101011”,通过加权计算为 “ 5 -5 5 -5 5 5”。

  • 4、合并,把上面各个单词算出来的序列值累加,变成只有一个序列串。比如 “美国”的 “4 -4 -4 4 -4 4”,“51区”的 “ 5 -5 5 -5 5 5”, 把每一位进行累加, “4+5 -4+-5 -4+5 4+-5 -4+5 4+5” ==》 “9 -9 1 -1 1 9”。这里作为示例只算了两个单词的,真实计算需要把所有单词的序列串累加。

  • 5、降维,把4步算出来的 “9 -9 1 -1 1 9” 变成 0 1 串,形成我们最终的simhash签名。 如果每一位大于0 记为 1,小于0 记为 0。最后算出结果为:“1 0 1 0 1 1”。

整个过程图为:

simhash计算过程图

大家可能会有疑问,经过这么多步骤搞这么麻烦,不就是为了得到个 0 1 字符串吗?我直接把这个文本作为字符串输入,用hash函数生成 0 1 值更简单。其实不是这样的,传统hash函数解决的是生成唯一值,比如 md5、hashmap等。md5是用于生成唯一签名串,只要稍微多加一个字符md5的两个数字看起来相差甚远;hashmap也是用于键值对查找,便于快速插入和查找的数据结构。不过我们主要解决的是文本相似度计算,要比较的是两个文章是否相识,当然我们降维生成了hashcode也是用于这个目的。看到这里估计大家就明白了,我们使用的simhash就算把文章中的字符串变成 01 串也还是可以用于计算相似度的,而传统的hashcode却不行。我们可以来做个测试,两个相差只有一个字符的文本串,“你妈妈喊你回家吃饭哦,回家罗回家罗” 和 “你妈妈叫你回家吃饭啦,回家罗回家罗”。

通过simhash计算结果为:

1000010010101101111111100000101011010001001111100001001011001011

1000010010101101011111100000101011010001001111100001101010001011

通过 hashcode计算为:

1111111111111111111111111111111110001000001100110100111011011110

1010010001111111110010110011101

大家可以看得出来,相似的文本只有部分 01 串变化了,而普通的hashcode却不能做到,这个就是局部敏感哈希的魅力。目前Broder提出的shingling算法和Charikar的simhash算法应该算是业界公认比较好的算法。在simhash的发明人Charikar的论文中并没有给出具体的simhash算法和证明,“量子图灵”得出的证明simhash是由随机超平面hash算法演变而来的

现在通过这样的转换,我们把库里的文本都转换为simhash 代码,并转换为long类型存储,空间大大减少。现在我们虽然解决了空间,但是如何计算两个simhash的相似度呢?难道是比较两个simhash的01有多少个不同吗?对的,其实也就是这样,我们通过海明距离(Hamming distance)就可以计算出两个simhash到底相似不相似。两个simhash对应二进制(01串)取值不同的数量称为这两个simhash的海明距离。举例如下: 10101 和 00110 从第一位开始依次有第一位、第四、第五位不同,则海明距离为3。对于二进制字符串的a和b,海明距离为等于在a XOR b运算结果中1的个数(普遍算法)。

为了高效比较,我们预先加载了库里存在文本并转换为simhash code 存储在内存空间。来一条文本先转换为 simhash code,然后和内存里的simhash code 进行比较,测试100w次计算在100ms。速度大大提升。

未完待续:

1、目前速度提升了但是数据是不断增量的,如果未来数据发展到一个小时100w,按现在一次100ms,一个线程处理一秒钟 10次,一分钟 60 * 10 次,一个小时 60*10 *60 次 = 36000次,一天 60*10*60*24 = 864000次。 我们目标是一天100w次,通过增加两个线程就可以完成。但是如果要一个小时100w次呢?则需要增加30个线程和相应的硬件资源保证速度能够达到,这样成本也上去了。能否有更好的办法,提高我们比较的效率?

2、通过大量测试,simhash用于比较大文本,比如500字以上效果都还蛮好,距离小于3的基本都是相似,误判率也比较低。但是如果我们处理的是微博信息,最多也就140个字,使用simhash的效果并不那么理想。看如下图,在距离为3时是一个比较折中的点,在距离为10时效果已经很差了,不过我们测试短文本很多看起来相似的距离确实为10。如果使用距离为3,短文本大量重复信息不会被过滤,如果使用距离为10,长文本的错误率也非常高,如何解决?

simhash_hammingdistance

参考:
Detecting near-duplicates for web crawling.

Similarity estimation techniques from rounding algorithms.

http://en.wikipedia.org/wiki/Locality_sensitive_hashing

http://en.wikipedia.org/wiki/Hamming_distance

simHash 简介以及 java 实现

simhash原理推导

原创文章,转载请注明: 转载自LANCEYAN.COM

本文链接地址: 海量数据相似度计算之simhash和海明距离

4
4
分享到:
评论
5 楼 lanceyan 2013-08-27  
sawadari_k 写道
楼主,可以把你的文章分享到我的微博上吗?

可以,大家共同探讨
4 楼 sawadari_k 2013-08-26  
楼主,可以把你的文章分享到我的微博上吗?
3 楼 bitray 2013-08-26  
长见识.是个做数据抽取的好办法
2 楼 steafler 2013-08-26  
值得探讨,楼主加油
1 楼 pangpang514 2013-08-26  
  长见识!

相关推荐

    中文文本相似度匹配算法 simHash 海明距离 IK分词

    使用IK分词器,我们可以先对输入的中文文本进行分词,然后利用simHash算法计算文本的哈希值,并通过海明距离计算不同文本之间的相似度。 总结来说,simHash、海明距离和IK分词是中文文本相似度匹配的关键技术。...

    论文计算相似度——基于SimHash算法和海明距离

    命令行输入两个txt文件的绝对路径,计算相似度,写进txt文件

    SimHash-java实现及海明距离

    SimHash是一种用于文本相似度计算的算法,它在大数据领域,尤其是搜索引擎和推荐系统中有着广泛应用。SimHash的原理是将一个长文本映射为一个短的哈希值,使得相似的文本拥有接近的哈希值。这种方法可以快速判断两段...

    海量数据相似度计算

    针对海量的文本资源,可以有效的进行快速计算。满足动态计算需求

    simhash文本相似度

    文本相似度判断 simhash 海明距离判断为相似

    海量文档相似性计算引擎方案

    海量文档相似性计算引擎方案是一个复杂而全面的技术方案,它利用SimHash算法生成文档数字签名,通过海明距离计算文档间相似度,借助中文分词技术和TF-IDF算法进行文本分析和处理,采用分布式计算应对大数据处理的...

    中文文本相似度匹配算法

    综上所述,中文文本相似度匹配通常涉及预处理(如分词)、哈希表示(如simHash)和相似度计算(如海明距离)。这些技术结合在一起,可以有效解决中文文本的相似性问题,尤其在处理大量文本数据时,既保证了效率,又...

    基于路径与词林编码的词语相似度计算方法.pdf

    该方法将词语的词林编码与路律试结构相结合,并利用局部敏感哈希算法和海明距离计算词林编码之间的相似度,从而提高词语相似度计算的准确性。 词语相似度计算是自然语言处理和信息检索领域中的一个重要问题。传统的...

    基于Simhash算法的海量文本相似性检测方法研究.pdf

    相比于传统的文档相似度计算方法,Simhash算法具有较好的性能和较低的计算复杂度。但传统的Simhash算法在计算文档特征的Simhash值时,关键词权重是基于关键词出现的频率,这种方法无法精确计算出文档特征的Simhash值...

    simhash算法

    - 对于短文本,可以考虑结合其他方法如TF-IDF、词向量(Word2Vec、GloVe等)来增强Simhash的表现,或者增加文本的上下文信息,提高相似度计算的准确性。 总之,Simhash算法在文本相似度检测中具有较高的效率和精度...

    余弦相似度算法文本相似度算法的对比及python实现

    余弦相似度算法文本相似度算法的对比及python实现五种常见的相似度算法:余弦相似度(cosine_similarity)、jaccard相似度、编辑距离(Levenshtein)、MinHash、SimHash + 海明距离。

    计算机课程设计-海明码的实现

    解码时,需要根据接收到的数据和校验位计算海明距离,判断是否存在错误,并进行必要的纠正。 三、设计方案 3.1 需求分析:首先需要明确海明码的编码规则,包括数据位和校验位的数量关系,以及校验位的计算方式。 ...

    simhash算法库simhash.zip

    此项目用来对中文文档计算出对应的 simhash 值。 simhash 是谷歌用来进行文本去重的算法,现在广泛应用在文本处理中。 详见SimhashBlog 特性 使用 CppJieba 作为分词器和关键词抽取器 使用 jenkins 作为 hash...

    Simhash:使用Simhash对海量文本进行去重

    6. **比较与去重**:使用海明距离计算两个Simhash值之间的相似度,设定一个阈值,例如海明距离小于3,则认为两个文本相似。根据这个判断结果进行去重操作。 在Jupyter Notebook中实现Simhash,可以使用Python的库,...

    云计算环境中的计算机网络安全 (3).pdf

    此外,海明距离在数据相似度计算中的应用,为信息检索和数据处理提供了一种有效的工具,有助于提升搜索引擎的性能和优化数据处理流程。在未来的研究中,还需要针对云计算环境下计算机网络安全的具体问题,设计更加...

    MySimHash.java

    使用simhash进行文本查重,计算海明距离,海明距离越小说明越相似,例子: 文本一:使用simhash进行文本查重,计算海明距离,海明距离越小说明越相似 文本二:一个查重算法,计算海明距离,海明距离越小说明越相似 ...

    基于SimHash的文本相似检测算法研究.pdf

    首先,SimHash算法能够将高维文本信息转化为较为简单的二进制指纹(即SimHash签名),通过这些签名之间的海明距离来衡量文本间的相似度。这种方法在处理大规模文本时,可以有效节省计算资源,相比传统的逐字比较方法...

    JAVA文本相似度查重代码及示例

    JAVA查重算法,包括HanLP 相似度比较、二叉树、DFA算法实现、敏感词处理工具、IKAnalyzer中文分词工具、分词进行敏感词过滤等查重算法,可以计算海明距离、余弦相似性、莱文斯坦距离、Jaccard 相似度、Sorensen Dice...

Global site tag (gtag.js) - Google Analytics