转载自http://blog.csdn.net/duketang/archive/2006/01/10/575215.aspx
Lucene是一个高性能的java全文检索工具包,它使用的是倒排文件索引结构。该结构及相应的生成算法如下:
0)设有两篇文章1和2
文章1的内容为:Tom lives in Guangzhou,I live in Guangzhou too.
文章2的内容为:He once lived in Shanghai.
1)由于lucene是基于关键词索引和查询的,首先我们要取得这两篇文章的关键词,通常我们需要如下处理措施
a.我们现在有的是文章内容,即一个字符串,我们先要找出字符串中的所有单词,即分词。英文单词由于用空格分隔,比较好处理。中文单词间是连在一起的需要特殊的分词处理。
b.文章中的”in”, “once” “too”等词没有什么实际意义,中文中的“的”“是”等字通常也无具体含义,这些不代表概念的词可以过滤掉
c.用户通常希望查“He”时能把含“he”,“HE”的文章也找出来,所以所有单词需要统一大小写。
d.用户通常希望查“live”时能把含“lives”,“lived”的文章也找出来,所以需要把“lives”,“lived”还原成“live”
e.文章中的标点符号通常不表示某种概念,也可以过滤掉
在lucene中以上措施由Analyzer类完成
经过上面处理后
文章1的所有关键词为:[tom] [live] [guangzhou] [i] [live] [guangzhou]
文章2的所有关键词为:[he] [live] [shanghai]
2) 有了关键词后,我们就可以建立倒排索引了。上面的对应关系是:“文章号”对“文章中所有关键词”。倒排索引把这个关系倒过来,变成:“关键词”对“拥有该关键词的所有文章号”。文章1,2经过倒排后变成
关键词 文章号
guangzhou 1
he 2
i 1
live 1,2
shanghai 2
tom 1
通常仅知道关键词在哪些文章中出现还不够,我们还需要知道关键词在文章中出现次数和出现的位置,通常有两种位置:a)字符位置,即记录该词是文章中第几个字符(优点是关键词亮显时定位快);b)关键词位置,即记录该词是文章中第几个关键词(优点是节约索引空间、词组(phase)查询快),lucene中记录的就是这种位置。
加上“出现频率”和“出现位置”信息后,我们的索引结构变为:
关键词 文章号[出现频率] 出现位置
guangzhou 1[2] 3,6
he 2[1] 1
i 1[1] 4
live 1[2],2[1] 2,5,2
shanghai 2[1] 3
tom 1[1] 1
以live 这行为例我们说明一下该结构:live在文章1中出现了2次,文章2中出现了一次,它的出现位置为“2,5,2”这表示什么呢?我们需要结合文章号和出现频率来分析,文章1中出现了2次,那么“2,5”就表示live在文章1中出现的两个位置,文章2中出现了一次,剩下的“2”就表示live是文章2中第 2个关键字。
以上就是lucene索引结构中最核心的部分。我们注意到关键字是按字符顺序排列的(lucene没有使用B树结构),因此lucene可以用二元搜索算法快速定位关键词。
实现时 lucene将上面三列分别作为词典文件(Term Dictionary)、频率文件(frequencies)、位置文件 (positions)保存。其中词典文件不仅保存有每个关键词,还保留了指向频率文件和位置文件的指针,通过指针可以找到该关键字的频率信息和位置信息。
Lucene中使用了field的概念,用于表达信息所在位置(如标题中,文章中,url中),在建索引中,该field信息也记录在词典文件中,每个关键词都有一个field信息(因为每个关键字一定属于一个或多个field)。
为了减小索引文件的大小,Lucene对索引还使用了压缩技术。首先,对词典文件中的关键词进行了压缩,关键词压缩为<前缀长度,后缀>,例如:当前词为“阿拉伯语”,上一个词为“阿拉伯”,那么“阿拉伯语”压缩为<3,语>。其次大量用到的是对数字的压缩,数字只保存与上一个值的差值(这样可以减小数字的长度,进而减少保存该数字需要的字节数)。例如当前文章号是16389(不压缩要用3个字节保存),上一文章号是16382,压缩后保存7(只用一个字节)。
下面我们可以通过对该索引的查询来解释一下为什么要建立索引。
假设要查询单词 “live”,lucene先对词典二元查找、找到该词,通过指向频率文件的指针读出所有文章号,然后返回结果。词典通常非常小,因而,整个过程的时间是毫秒级的。
而用普通的顺序匹配算法,不建索引,而是对所有文章的内容进行字符串匹配,这个过程将会相当缓慢,当文章数目很大时,时间往往是无法忍受的。
本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/duketang/archive/2006/01/10/575215.aspx
分享到:
相关推荐
在Luence.net中结合盘古分词,可以实现对中文文本的精确分词,进一步提高搜索的准确性和覆盖率。分词是搜索引擎的关键步骤,它将输入的字符串拆分成一系列有意义的词汇单元,这些单元成为索引和匹配的基础。通过盘古...
《Luence和ElasticSearch面试准备》 Lucene和ElasticSearch是两个在全文搜索引擎领域中广泛使用的开源工具。Lucene是一个高性能、全文本搜索库,而Elasticsearch则是在Lucene的基础上构建的一个分布式、RESTful风格...
2. **预处理**:Lucene对抓取的内容进行分词,即进行词典化(Tokenization),将连续的文本分割成独立的词汇单位(Token)。同时,它还会执行其他预处理操作,如去除停用词(Stopwords)、词干提取(Stemming)和词...
- 分词:Lucene 4.6中使用Analyzer进行文本分词,Analyzer可以根据不同的语言和应用场景进行定制。 - 文档分析:Document类代表一个待索引的文档,Field类用于定义文档字段及其属性,如是否存储原始值、是否可搜索...
本文将深入探讨Lucene的工作原理、主要组件以及如何在实际应用中使用它。 一、Lucene核心概念 1. 文档(Document):在Lucene中,文档是信息的基本单位,它可以包含多个字段(Field),每个字段都有自己的名称和...
首先,我们需要理解Lucene的基本工作原理。Lucene的核心概念包括文档(Document)、字段(Field)、索引(Index)和查询(Query)。文档是信息的基本单位,可以代表网页、电子邮件或者其他类型的数据。字段是文档的...
### Lucene原理与代码分析概览 #### 一、全文检索的基本原理 ##### 1. 总论 全文检索系统是一种高效的信息检索技术,能够帮助用户在海量文档中快速找到包含特定关键词的信息。Lucene是Java领域最成熟的全文检索...
源码分析对于深入理解 Lucene 内部工作原理至关重要。`lucene-3.5.0-src.tgz` 包含了 Lucene 3.5.0 版本的源代码,可以进行以下研究: 1. **分析索引流程**:查看 `org.apache.lucene.index.IndexWriter` 类,了解...
首先,爬虫抓取的网页数据需要经过预处理,例如分词、去除停用词等,然后构建Lucene的Document对象,每个Document对应于一个网页或文档。接着,将这些Documents添加到IndexWriter中,创建索引。索引完成后,用户可以...
本文将深入探讨Lucene的工作原理、核心组件以及其在实际应用中的使用技巧。 一、Lucene的基本工作流程 Lucene的索引过程主要包括以下几个步骤: 1. 文档分析:首先,Lucene会接收输入的文档,并通过Analyzer进行...
同时,官方文档详细解释了各个组件的使用方法和原理,为开发者提供了宝贵的参考资料。 总结,Lucene3.0是全文检索领域的一个强大工具,其索引构建、分词、查询解析、搜索算法等功能在当时具有很高的技术水平,并且...
《Lucene3.0原理与代码分析》是针对搜索引擎库Lucene 3.0版本的一份详尽解析,旨在帮助读者深入理解其内部工作机制和实现细节。Lucene是一款高性能、全文检索库,广泛应用于各类信息检索系统。下面将围绕Lucene的...
在了解 Lucene 的工作原理之前,我们要明确一点:Lucene 不是一个完整的搜索引擎应用,而是用于构建搜索引擎的工具包。开发者需要根据自己的需求来构建索引,并将搜索功能整合到自己的应用中。 Lucene 的核心在于其...
#### Lucene倒排索引原理 Lucene的核心机制之一是倒排索引。倒排索引是一种高效的索引数据结构,用于快速定位包含特定词汇的文档。在Lucene中,倒排索引的构建过程包括以下几个步骤: 1. **文档分析**:对输入文档...
2. **分词与索引**:对于中文文档,我们需要进行分词,常用的是结巴分词库,它可以将文本拆分成有意义的词语。然后,将这些词语建立索引,便于后续的检索。 三、Lucene搜索引擎的搭建 1. **Lucene简介**:Apache ...
索引过程中包括分词、去除停用词、词干化等预处理步骤。 2. **文档与字段**: 在Lucene中,每个要搜索的实体被视为一个文档,由多个字段组成,如标题、内容、作者等。每个字段可以设置不同的分析器,以便对不同类型...
这篇毕业论文对于想要深入理解搜索引擎工作原理,特别是想在垂直搜索领域进行实践的人来说,是一份宝贵的参考资料。通过对Lucene和Heritrix的结合运用,作者展示了如何打造一个高效、精准的职位搜索引擎,为招聘行业...
这个过程包括分词(Tokenization)、词干提取(Stemming)、停用词过滤(Stop Word Filtering)等文本处理步骤。`Indexer.java` 文件通常包含了这些步骤的实现,将文档内容转化为 Lucene 可以理解的格式,并保存到...
索引过程包括分析(Analyzer)文本、分词(Tokenization)、建立倒排索引(Inverted Index)等步骤。 - **文档(Document)**: Lucene中的文档相当于存储信息的基本单元,可以包含多个字段(Field),每个字段有...