`
m635674608
  • 浏览: 5052928 次
  • 性别: Icon_minigender_1
  • 来自: 南京
社区版块
存档分类
最新评论

英文分词的算法和原理

 
阅读更多

英文分词的算法和原理

根据文档相关性计算公式

分词质量对于基于词频的相关性计算是无比重要的

英文(西方语言)语言的基本单位就是单词,所以分词特别容易做,只需要3步:

  1. 根据空格/符号/段落 分隔,得到单词组

  2. 过滤,排除掉stop word

  3. 提取词干

第一步:按空格/符号分词

用正则表达式很容易

  1. pattern = r'''(?x)    # set flag to allow verbose regexps

  2.      ([A-Z]\.)+        # abbreviations, e.g. U.S.A.

  3.    | \w+(-\w+)*        # words with optional internal hyphens

  4.    | \$?\d+(\.\d+)?%?  # currency and percentages, e.g. $12.40, 82%

  5.    | \.\.\.            # ellipsis

  6.    | [][.,;"'?():-_`]  # these are separate tokens

  7.    '''

  8. re.findall(pattern,待分词文本)

第二步:排除stop word

stopword就是类似a/an/and/are/then 的这类高频词,高频词会对基于词频的算分公式产生极大的干扰,所以需要过滤

第三步:提取词干

词干提取(Stemming) 这是西方语言特有的处理,比如说英文单词有 单数复数的变形,-ing和-ed的变形,但是在计算相关性的时候,应该当做同一个单词。比如 apple和apples,doing和done是同一个词,提取词干的目的就是要合并这些变态

Stemming有3大主流算法

Lucene 英文分词自带了3个stemming算法,分别是

  1. EnglishMinimalStemmer

  2. 著名的 Porter Stemming

  3. KStemmer

词干提取算法并不复杂,要么是一堆规则,要么用映射表,编程容易,但是必须是这种语言的专家,了解构词法才行啊

http://text-processing.com/demo/stem/ 是一个在线试验词干提取算法的网站

Lemmatisation

Lemmatisation是和词干提取(Stemming) 齐名的一个语言学名词,中文可以叫做 词形还原 ,就是通过查询字典,把 "drove" 还原到 "drive"
而stemming会把单词变短,"apples","apple"处理之后都变成了 "appl"

做计算机语言学研究才会涉及到lemmatization,我个人觉得做搜索完全可以不考虑,Stemming已经可以解决大问题了

参考

 

 

 

 

搜索相关度算法公式: BM25

BM25算法的全称是 Okapi BM25,是一种二元独立模型的扩展,也可以用来做搜索的相关度排序。

Sphinx的默认相关性算法就是用的BM25。Lucene4.0之后也可以选择使用BM25算法(默认是TF-IDF)。如果你使用的solr,只需要修改schema.xml,加入下面这行就可以

<similarity class="solr.BM25Similarity"/>

BM25也是基于词频的算分公式,分词对它的算分结果也很重要
bm25

IDF公式
bm25 idf

  • f(qi,D):就是词频

  • |D|:[给定文档]D长度。

  • avgdl:索引中所有文档长度。

抽象点看,BM25的公式其实和TF-IDF公式大同小异,可以也可以当做 = ∑ idf(q) * fx(tf),

只不过,BM25的idf和tf都做了一些变形,特别是tf公式,还加入了两个经验参数k1和b,K1和b用来调整精准度,一般情况下我们取K1=2,b=0.75

至于BM25和TF-IDF 哪种相关性算法更更好,我认为依赖于搜索质量评估标准

参考

 

Lucene TF-IDF 相关性算分公式

Lucene在进行关键词查询的时候,默认用TF-IDF算法来计算关键词和文档的相关性,用这个数据排序

TF:词频,IDF:逆向文档频率,TF-IDF是一种统计方法,或者被称为向量空间模型,名字听起来很复杂,但是它其实只包含了两个简单规则

  1. 某个词或短语在一篇文章中出现的次数越多,越相关

  2. 整个文档集合中包含某个词的文档数量越少,这个词越重要

所以一个term的TF-IDF相关性等于 TF * IDF

这两个规则非常简单,这就是TF-IDF的核心规则,第二个的规则其实有缺陷的,他单纯地认为文本频率小的单词就越重要,文本频率大的单词就越无 用,显然这并不是完全正确的。并不能有效地反映单词的重要程度和特征词的分布情况,比如说搜索web文档的时候,处于HTML不同结构的特征词中对文章内 容的反映程度不同,应该有不同的权重

TF-IDF的优点是算法简单,运算速度很快

Lucene为了提高可编程行,在上述规则做了一些扩充,就是加入一些编程接口,对不同的查询做了权重归一化处理,但是核心公式还是TF * IDF

Lucene算法公式如下

score(q,d)   =   coord(q,d) ·  queryNorm(q) ·    ∑    ( tf(t in d) ·  idf(t)2 ·  t.getBoost() ·  norm(t,d) )

  • tf(t in d ),  = frequency½

  • idf(t)   = 1 +log(文档总数/(包含t的文档数+1))

  • coord(q,d) 评分因子,。越多的查询项在一个文档中,说明些文档的匹配程序越高,比如说,查询"A B C",那么同时包含A/B/C3个词的文档 是3分,只包含A/B的文档是2分,coord可以在query中关掉的

  • queryNorm(q)查询的标准查询,使不同查询之间可以比较

  • t.getBoost() 和 norm(t,d) 都是提供的可编程接口,可以调整 field/文档/query项 的权重

各种编程插口显得很麻烦,可以不使用,所以我们可以把Lucence的算分公式进行简化

score(q,d) = coord(q,d) ·      ∑    ( tf(t in d) ·  idf(t)2 )

结论

 

  1. TF-IDF 算法是以 term为基础的,term就是最小的分词单元,这说明分词算法对基于统计的ranking无比重要,如果你对中文用单字切分,那么就会损失所有的语义相关性,这个时候 搜索只是当做一种高效的全文匹配方法

  2. 按照规则1 某个词或短语在一篇文章中出现的次数越多,越相关 一定要去除掉stop word,因为这些词出现的频率太高了,也就是TF的值很大,会严重干扰算分结果

  3. TF和IDF在生成索引的时候,就会计算出来: TF会和DocID保存在一起(docIDs的一部分),而IDF= 总文档数 / 当前term拥有的docIDs 长度

 

http://my.oschina.net/bruceray/blog/493317

分享到:
评论

相关推荐

    中英文分词算法

    本文将深入探讨由KaiToo搜索开发的中英文分词算法,该算法具备中英文分词、未登录词识别、多元歧义自动识别以及全角字符识别等功能,对于理解和实现高效分词系统具有重要价值。 一、中英文分词原理 1. 字典匹配法...

    最新逆向最大匹配分词算法 盘古分词 分词算法 中文分词 源码

    通过研究这些源码,开发者可以深入了解分词算法的内部工作原理,学习如何构建高效的分词系统,以及如何根据实际需求调整和优化算法。此外,这些源码也可以作为教学和研究的宝贵资源,帮助人们掌握自然语言处理的关键...

    中文词库-分词算法必备

    #### 二、分词算法原理及应用 分词算法是中文自然语言处理的基础,其目标是将连续的汉字序列切分成有意义的词语单元。常见的分词算法包括基于规则的方法、基于统计的方法和基于深度学习的方法。例如,最大匹配法...

    基于逆向匹配的中文分词算法

    ### 基于逆向匹配的中文分词算法 #### 概述 中文分词作为自然语言处理(NLP)的基础任务之一,在信息检索、文本挖掘、机器翻译等领域发挥着至关重要的作用。与英文等西方语言相比,中文没有明确的单词边界标识,...

    Trie实现英文分词的相关算法

    通过深入理解Trie树的原理及其在英文分词中的应用,我们可以设计出更高效、更灵活的文本处理系统,满足各种复杂场景的需求。无论是搜索引擎、自动补全、文本分析还是信息检索,Trie树都是一个不可或缺的工具。

    分词算法baidu分词算法分析之

    对于从事SEO优化的专业人士来说,理解百度分词算法的工作原理至关重要。通过对百度分词算法的研究,可以更好地指导网站内容的制作和优化工作,从而提高网站在百度搜索结果中的排名。 1. **关键词布局**:了解百度...

    百度分词算法详解

    而对SEO从业者而言,理解分词算法原理,不仅有助于提升网站的搜索引擎排名,还能在信息的海洋中为用户提供更加精确和有价值的搜索结果。随着互联网信息的不断丰富,我们有理由相信,分词技术将会继续发展和创新,为...

    一种基于改进最大匹配快速中文分词算法

    #### 二、最大匹配分词算法的基本原理 最大匹配法(Maximum Matching, MM)是一种广泛使用的中文分词方法。它的核心思想是在分词过程中尽可能选择最长的词来进行匹配,以减少分词的结果数量。MM法通常分为正向最大...

    多次Hash快速分词算法

    #### 二、多次Hash快速分词算法原理 多次Hash快速分词算法的核心思想是在分词过程中利用Hash表来加速候选词的查找。传统方法中,通常仅对词的第一个字符(首字)进行Hash查找,而对于词的其他字符则采用二分查找或...

    最大逆向中文分词算法

    ### 最大逆向中文分词算法详解 #### 一、引言 中文分词作为自然语言处理中的基础任务之一,在信息检索、文本挖掘等领域扮演着重要角色。与英文等基于空格分隔的语言不同,中文词语之间没有明显的界限,因此需要...

    非常好的检索分词算法PPT文档

    2. **分词方法**:详细讲解各种分词算法的工作原理和优缺点。 3. **实例分析**:通过实例展示不同算法的分词效果。 4. **处理策略**:介绍如何优化分词结果,包括去停用词、词性标注等。 5. **最新进展**:探讨最新...

    智能分词源代码

    智能分词是自然语言处理(NLP)领域的一项关键技术,主要任务是对中文文本进行词汇切分,以便后续的语义分析、信息...通过对源码的学习,我们可以深入理解分词算法的运作机制,并有机会提升分词系统的效率和准确性。

    基于逆向最大匹配算法的中文分词的设计与开发

    ### 基于逆向最大匹配算法的中文分词的设计与开发 #### 一、中文分词概述 中文分词是自然语言处理(NLP)领域中的...未来,随着深度学习和大数据技术的发展,中文分词算法有望进一步优化,更好地适应多样化的应用场景。

    porter stemming 分词算法

    **porter stemming 分词算法** porter stemming算法是一种广泛应用于英文文本处理中的词干提取方法,由Martin Porter在1973年提出。它的主要目的是减少单词的不同形式,将它们还原到基本的形式,通常被称为词根或...

    百度分词算法详解第1/2页

    百度分词算法详解 百度分词算法是搜索引擎中非常重要的一部分,其主要作用是将用户的查询语句进行分词处理,以便更好地索引和检索相关...只有深入了解百度分词算法,我们才能更好地理解搜索引擎的工作原理和技术细节。

    Solr5.5搜索引擎之分词原理说明

    通过理解中文分词的基本原理和技术,可以帮助开发者更好地设计和实现高效的中文信息处理系统。无论是传统的基于词典的分词方法,还是新兴的统计分词、深度学习分词等技术,都在不断地推动着中文自然语言处理领域的...

    php 一元分词算法

    相比于复杂的N元文法模型或者基于统计的语言模型,一元分词算法更加简单直接,易于理解和实现。它特别适用于一些对效率要求较高但对分词精度要求不是特别严格的场景。 #### 二、PHP一元分词算法实现原理 在PHP中...

    Solr5.5搜索引擎之分词原理说明.docx

    在中文分词中,需要考虑到中文的特点,例如英文是以词为单位的,词和词之间是靠空格隔开,而中文时以字为单位,句子中所有的字连起来才能描述一个意思。例如,英文句子 "I am a student",用中文则为:“我是一个...

Global site tag (gtag.js) - Google Analytics