`

lucene 分词原理

阅读更多

Lucene是一个高性能的 java 全文检索工具包,它使用的是倒排文件索引结构。该结构及相应的生成算法如下: 

0)设有两篇文章 1
文章1 的内容为: Tom lives in Guangzhou,I live in Guangzhou too. 
文章2 的内容为: He once lived in Shanghai. 

1)由于 lucene 是基于关键词索引和查询的,首先我们要取得这两篇文章的关键词,通常我们需要如下处理措施 
a.我们现在有的是文章内容,即一个字符串,我们先要找出字符串中的所有单词,即分词。英文单词由于用空格分隔,比较好处理。中文单词间是连在一起的需要特殊的分词处理。 
b.文章中的 in once ” “ too 等词没有什么实际意义,中文中的 ”“ 等字通常也无具体含义,这些不代表概念的词可以过滤掉 
c.用户通常希望查 He 时能把含 he HE 的文章也找出来,所以所有单词需要统一大小写。 
d.用户通常希望查 live 时能把含 lives lived 的文章也找出来,所以需要把 lives lived 还原成 live ” 
e.文章中的标点符号通常不表示某种概念,也可以过滤掉 
lucene 中以上措施由 Analyzer 类完成 

经过上面处理后 
文章1 的所有关键词为: [tom] [live] [guangzhou] [i] [live] [guangzhou] 
文章2 的所有关键词为: [he] [live] [shanghai] 

2) 有了关键词后,我们就可以建立倒排索引了。上面的对应关系是: 文章号 文章中所有关键词 。倒排索引把这个关系倒过来,变成: 关键词 拥有该关键词的所有文章号 。文章 1 2 经过倒排后变成 
关键词 文章号 
guangzhou 1 
he 2 
i 1 
live 1,2 
shanghai 2 
tom 1 

通常仅知道关键词在哪些文章中出现还不够,我们还需要知道关键词在文章中出现次数和出现的位置,通常有两种位置:

a) 字符位置,即记录该词是文章中第几个字符(优点是关键词亮显时定位快);

b)关键词位置,即记录该词是文章中第几个关键词(优点是节约索引空间、词组( phase )查询快), lucene 中记录的就是这种位置。 

加上 出现频率 出现位置 信息后,我们的索引结构变为: 
关键词 文章号[ 出现频率 出现位置 
guangzhou 1[2] 3
he 2[1] 1 
i 1[1] 4 
live 1[2],2[1] 2 5
shanghai 2[1] 3 
tom 1[1] 1 

live  这行为例我们说明一下该结构: live 在文章 1 中出现了 2 次,文章 2 中出现了一次,它的出现位置为 2,5,2 这表示什么呢?我们需要结合文章号和出现频率来分析,文章 1 中出现了 2 次,那么 2,5 就表示 live 在文章 1 中出现的两个位置,文章 2 中出现了一次,剩下的 2 就表示 live 是文章 2 中第  2 个关键字。 

以上就是lucene 索引结构中最核心的部分。我们注意到关键字是按字符顺序排列的( lucene 没有使用 B 树结构),因此 lucene 可以用二元搜索算法快速定位关键词。 

实现时 lucene 将上面三列分别作为词典文件( Term Dictionary )、频率文件 (frequencies) 、位置文件  (positions) 保存。其中词典文件不仅保存有每个关键词,还保留了指向频率文件和位置文件的指针,通过指针可以找到该关键字的频率信息和位置信息。 

Lucene中使用了 field 的概念,用于表达信息所在位置(如标题中,文章中, url 中),在建索引中,该 field 信息也记录在词典文件中,每个关键词都有一个 field 信息 ( 因为每个关键字一定属于一个或多个 field) 。 

为了减小索引文件的大小,Lucene 对索引还使用了压缩技术。首先,对词典文件中的关键词进行了压缩,关键词压缩为 < 前缀长度,后缀 > ,例如:当前词为 阿拉伯语 ,上一个词为 阿拉伯 ,那么 阿拉伯语 压缩为 <3 ,语 > 。其次大量用到的是对数字的压缩,数字只保存与上一个值的差值(这样可以减小数字的长度,进而减少保存该数字需要的字节数)。例如当前文章号是 16389 (不压缩要用 3 个字节保存),上一文章号是 16382 ,压缩后保存 7 (只用一个字节)。 

下面我们可以通过对该索引的查询来解释一下为什么要建立索引。 
假设要查询单词  live lucene 先对词典二元查找、找到该词,通过指向频率文件的指针读出所有文章号,然后返回结果。词典通常非常小,因而,整个过程的时间是毫秒级的。 
而用普通的顺序匹配算法,不建索引,而是对所有文章的内容进行字符串匹配,这个过程将会相当缓慢,当文章数目很大时,时间往往是无法忍受的。

分享到:
评论

相关推荐

    Lucene的原理完整版pdf

    **Lucene原理详解** Lucene是一个高性能、全文检索库,由Apache软件基金会开发并维护,是Java编程语言中广泛使用的搜索引擎库。它提供了一个简单但功能强大的API,用于索引和搜索文本数据,使得开发者可以轻松地在...

    Lucene3.0分词系统.doc

    Lucene3.0分词系统的核心在于理解和应用其分词原理,无论是对于英文还是中文文本,这一过程都是构建高效搜索引擎的基础。以下是对Lucene3.0分词系统中涉及的关键知识点的深入解析。 ### 英文分词原理 英文分词相较...

    Lucene与中文分词技术的研究及应用

    #### Lucene简介与原理 Lucene是一款高性能、全功能的文本搜索引擎库,由Java语言编写而成。它为开发者提供了构建全文搜索引擎的能力,而无需关注底层搜索机制的具体实现细节。Lucene的核心概念包括文档(Document...

    lucene中文分词工具包

    Lucene是一个高性能、全文检索库,而“lucene中文分词工具包”则为Lucene提供了一个专门针对中文分词的解决方案。这个工具包的核心是IKAnalyzer,它是一个开源且基于Java语言开发的轻量级中文分词工具,旨在提升中文...

    Lucene 3.0 原理

    **Lucene 3.0 原理解析** Lucene 是一个开源的全文搜索引擎库,由 Apache 软件基金会维护。它为开发者提供了一套强大的工具,用于在各种应用程序中实现全文检索功能。在 Lucene 3.0 版本中,其核心功能和设计原理...

    c# Lucene.net 原理 代码分析加强版

    《C# Lucene.net原理与代码分析加强版》是一份深度解析Lucene.net搜索引擎库的文档,涵盖了全文检索的基本原理、Lucene的总体架构、索引文件格式以及索引过程和段合并等核心主题,旨在为开发人员提供深入理解Lucene...

    Solr5.5搜索引擎之分词原理说明.docx

    Solr5.5 搜索引擎之分词原理说明 Solr5.5 搜索引擎之分词原理说明是指 Solr5.5 搜索引擎内部使用的分词原理,旨在帮助开发者自定义自己的分词器时掌握分词的基础知识。 1. 中文分词 中文分词是指将中文汉字序列切...

    lucene中文分词

    首先,我们要理解Lucene的基本工作原理。Lucene是一个开源的全文检索库,它提供了索引和搜索功能,能够快速地在大量文本中找到相关的文档。然而,由于中文词汇之间没有明显的边界,如英文单词间的空格,因此在对中文...

    Lucene 3.0 原理与代码分析完整版

    《Lucene 3.0 原理与代码分析完整版》是一本深入解析Lucene 3.0搜索引擎库的专业书籍。Lucene是Apache软件基金会的开源项目,它为Java开发者提供了一个高性能、全文检索的工具包,广泛应用于各种信息检索系统。这...

    Lucene 原理与代码分析完整版

    本文将对Lucene的基本原理及其实现的代码进行分析。 首先,全文检索的基本原理包括索引的创建与搜索过程。在索引创建过程中,文档首先经过分词组件Tokenizer拆分成词元Token,然后经过语言处理组件...

    Lucene+原理与代码分析完整版

    《Lucene原理与代码分析》全面解析 Lucene是一个开源的全文搜索引擎库,由Apache软件基金会开发并维护,广泛应用于各种信息检索系统中。它主要使用Java语言编写,因此在Java开发环境中应用尤为广泛。本篇文章将深入...

    lucene工作原理.docx

    【Lucene工作原理详解】 Lucene是一个开源的全文搜索引擎库,由Apache软件基金会维护,它提供了文本分析、索引创建、搜索以及相关的功能,适用于Java开发者构建自己的全文搜索应用程序。其核心工作原理主要涉及以下...

    LUCENE搜索引擎基本工作原理

    2. **预处理**:Lucene对抓取的内容进行分词,即进行词典化(Tokenization),将连续的文本分割成独立的词汇单位(Token)。同时,它还会执行其他预处理操作,如去除停用词(Stopwords)、词干提取(Stemming)和词...

    Lucene.Net +盘古分词 搜索引擎

    **正文** Lucene.Net是一个基于Apache Lucene的全文检索库,专门为.NET Framework设计。...通过深入理解Lucene.Net的内部机制和盘古分词的工作原理,可以进一步优化搜索性能,满足不同场景的需求。

    lucene.net中文分词器

    附带的源代码是理解这个分词器工作原理的重要资源。通过阅读和分析代码,开发者可以了解到如何在Lucene.NET中集成自定义分词器,以及如何实现最大向前匹配算法的具体细节。这为其他开发者提供了参考和学习的机会,也...

    lucene原理与代码分析完整版

    ### Lucene原理与代码分析概览 #### 一、全文检索基本原理 全文检索是一种能够检索文档中任意词语的信息检索技术。与简单的关键词查询不同,全文检索不仅关注文档标题、元数据,还深入到文档的实际内容中去。这种...

    lucene中文分词源码,做搜索引擎需要用到的好东西哦

    本文将深入探讨Lucene的中文分词源码,帮助你理解其工作原理,以便更好地应用到自己的项目中。 首先,Lucene的分词过程主要涉及到两个关键组件:Analyzer和TokenStream。Analyzer是负责将输入的文本分解为一系列的...

    lucene 原理与代码分析

    《Lucene原理与代码分析》深入探讨了几乎最新版本的Lucene的工作机制和代码实现细节,为理解全文搜索引擎的核心技术提供了宝贵的资源。以下是对该文件关键知识点的详细解析: ### 全文检索的基本原理 #### 总论 ...

Global site tag (gtag.js) - Google Analytics