`

【Lucene3.0 初窥】索引文件格式(5):posting数据[.frq/.prx]

阅读更多

★ .frq   词语频率数据 文件    .prx  词语位置数据文件

 

1、frq 保存了 词语所在文档的文档列表(docID)和该词语出现在文档中的频率信息。

 

FreqFile (.frq) --> <TermFreqs, SkipData> TermCount       frq文件包含TermCount个项。每一项都代表一个词,按照tis中的term的顺序排列。它分成两个部分:一部分是倒排表本身,也即一串的文档号及词频;另一部分是跳跃表,为了更快的访问和定位倒排表中文档号及词频的位置。

 

TermFreqs --> <TermFreq> DocFreq     TermFreq 按文档编号递增的顺序排序。DocFreq表示 出现 该词的文档数量。

 

TermFreq --> DocDelta[, Freq?]   一个TermFreq结构是由一个DocDelta后面或许跟着Freq组成。DocDelta是存储包含此Term的文档的ID号了,Freq是在此文档中出现的次数。

注意:TermFreq的存储数据时比较特别的,其中用到了差值规则和或然跟随规则。我们在下面解释一下TermFreq的存储数据。 (关于差值规则和或然跟随规则,请参见:《索引文件格式(1):基础知识

(http://lucene.apache.org/java/3_0_1/fileformats.html#Frequencies)
Lucene官方网站解析freq文件中我们可以看到这样一段话
For example, the TermFreqs for a term which occurs once in document seven and three times in document eleven, with omitTf false, would be the following sequence of VInts: 15, 8, 3
If omitTf were true it would be this sequence of VInts instead: 7,4
      
(1) 首先我们看omitTf=false的情况,也即我们在索引中会存储一个文档中term出现的次数。
      例子中说了,表示在文档7中出现1次,并且又在文档11中出现3次的文档用以下序列表示:15,8,3.
      那这三个数字是怎么计算出来的呢?
      首先,根据定义TermFreq --> DocDelta[, Freq?],一个TermFreq结构是由一个DocDelta后面或许跟着Freq组成,也即上面我们说的A+B?结构。
      DocDelta自然是想存储包含此Term的文档的ID号了,Freq是在此文档中出现的次数。
      所以根据例子,应该存储的完整信息为[DocID = 7, Freq = 1] [DocID = 11,  Freq = 3](见全文检索的基本原理章节)。
      然而为了节省空间,Lucene对编号此类的数据都是用差值来表示的,也即上面说的规则2,Delta规则,于是文档ID就不能按完整信息存了,就应该存放如下:
[DocDelta = 7, Freq = 1][DocDelta = 4 (11-7), Freq = 3]
     然而Lucene对于A+B?这种或然跟随的结果,有其特殊的存储方式,见规则3,即A+B?规则,如果DocDelta后面跟随的Freq为1,则用 DocDelta最后一位置1表示。
      如果DocDelta后面跟随的Freq大于1,则DocDelta得最后一位置0,然后后面跟随真正的值,从而对于第一个Term,由于Freq 为1,于是放在
      DocDelta的最后一位表示,DocIDDelta = 7的二进制是000 0111,必须要左移一位,且最后一位置1,000 1111 = 15,对于第二个Term,由于Freq大于1,于是放在DocDelta的最后一位置零,DocIDDelta = 4的二进制是0000 0100,必须要左移一位,且最后一位置零,0000 1000 = 8,然后后面跟随真正的Freq = 3。
      于是得到序列:[DocDleta = 15][DocDelta = 8, Freq = 3],也即序列,15,8,3。

(2) 如果omitTf=true,也即我们不在索引中存储一个文档中Term出现的次数,则只存DocID就可以了,因而不存在A+B?规则的应用。[DocID = 7][DocID = 11],然后应用规则2,Delta规则,于是得到序列[DocDelta = 7][DocDelta = 4 (11 - 7)].

  
 

 

SkipData --> <<SkipLevelLength, SkipLevel> NumSkipLevels-1 , SkipLevel> <SkipDatum>  

SkipLevel --> <SkipDatum> DocFreq/(SkipInterval^(Level + 1))

SkipDatum --> DocSkip,PayloadLength?,FreqSkip,ProxSkip,SkipChildLevelPointer?

 

跳跃表可根据倒排表本身的长度(DocFreq)和跳跃的幅度(SkipInterval)而分不同的层次,层次数为NumSkipLevels = Min(MaxSkipLevels, floor(log(DocFreq/log(SkipInterval)))).

 

第Level层的节点数为DocFreq/(SkipInterval^(Level + 1)),level从零计数。

 

除了最高层之外,其他层都有SkipLevelLength来表示此层的二进制长度(而非节点的个数),方便读取某一层的跳跃表到缓存里面。

 

低层在前,高层在后,当读完所有的低层后,剩下的就是最后一层,因而最后一层不需要SkipLevelLength。这也是为什么Lucene文 档中的格式描述为 NumSkipLevels-1 , SkipLevel,也即低NumSKipLevels-1层有SkipLevelLength,最后一层只有SkipLevel,没有 SkipLevelLength。

 

除最低层以外,其他层都有SkipChildLevelPointer来指向下一层相应的节点。

 

每一个跳跃节点包含以下信息:文档号,payload的长度,文档号对应的倒排表中的节点在frq中的偏移量,文档号对应的倒排表中的节点在 prx中的偏移量。

 

 

2、 prx文件容纳了每一个term出现在所有文档中的位置的列表。注意如果在fields中的omitTf设置为 true时将不会在此文件中存储任何信息,并且如果索引中所有fields中的omitTf都设置为true,此.prx文件将不会存在

 

ProxFile (.prx) --> <TermPositions> TermCount

TermPositions --> <Positions> DocFreq

Positions --> <PositionDelta,Payload?> Freq

Payload --> <PayloadLength?,PayloadData>

PositionDelta --> VInt

PayloadLength --> VInt

PayloadData --> bytePayloadLength

 

此文件包含TermCount个项,每一个词都有一项,因为每一个词都有自己的词位置倒排表。

 

对于每一个词的 都有一个DocFreq大小的数组,每项代表一篇文档,记录此文档中此词出现的位置。这个文档数组也是和frq文件中的跳跃表有关 系的,从上面我们知道,在frq的跳跃表节点中有ProxSkip,当SkipInterval为3的时候,frq的跳跃表节点指向prx文件中的此数组 中的第1,第4,第7,第10,第13,第16篇文档。

 

而有一个Freq大小的数组,每一项代表此词在此文档中出现 一次,则有一个位置信息。

 

每一个位置信息包含:PositionDelta(采用差值规则),还可以保存 payload,应用或然跟随规则。

 

 

 

 

 

★  专题用例 :

 

 关于例子的详细信息参见《索引文件格式 (2):文件 结构总体框架 》最后的说明。

 

 

(1) 解释一下frq文件的数据

  frq文件的数据很显然使用了差值规则和或然跟随规则,比如“term”词语。其存储结构应该为[DocID=0,Freq=1][DocID=1,Freq=2][DocID=2,Freq=3][DocID=3,Freq=1]。

差值规则: [DocCode=0,Freq=1][DocCode=1(1-0),Freq=2][DocCode=1(2-1),Freq=2][DocCode=1(3-2),Freq=2]

或然跟随规则:[DocCode=0,Freq=1] 如果DocCode后面的数据为1,则将DocCode<<1后将最后的bit存储Freq内容。即DocCode=00000000<<1=00000000 再将最后一个bit存储Freq=1,则变成00000001。因此、在文件中本来需要2个byte空间,压缩成1个byte来存储DocCode+Freq。

                     [DocCode=1,Freq=2]如果DocCode后面的数据不为1,则将DocCode<<1得到DocCode=00000001<<1=2后,在用另外一个byte来存储Freq=1。这里没有压缩为什么还要左移呢?为了能够将压缩数据和没有压缩的数据区别开来。

 

(2) 解释一下prx文件的数据

  同上,依然使用了差值规则。

 

注意: 这里词频和位置信息并没有使用到跳表结构,是因为所只用的例子中4篇文档内容很少。如果Dictionary非常大,则会向上面叙述的那样使用跳表结构来进行存储。

0
0
分享到:
评论
1 楼 ppm10103 2012-06-27  
差值规则: [DocCode=0,Freq=1][DocCode=1(1-0),Freq=2][DocCode=1(2-1),Freq=2][DocCode=1(3-2),Freq=2]

这个地方是错的,每次增加文档后都会执行
@Override
void finish() throws IOException {
long skipPointer = skipListWriter.writeSkip(out);
// TODO: this is abstraction violation -- we should not
// peek up into parents terms encoding format
termInfo.set(df, parent.freqStart, parent.proxStart,
(int) (skipPointer - parent.freqStart));
// TODO: we could do this incrementally
UnicodeUtil.UTF16toUTF8(parent.currentTerm, parent.currentTermStart,
utf8);
if (df > 0) {
parent.termsOut.add(fieldInfo.number, utf8.result, utf8.length,
termInfo);
}
lastDocID = 0;
df = 0;
}

这样,下一个文档的差值就是 docI-0

相关推荐

    Lucene3.0创建索引

    在Lucene3.0中创建索引是一个关键功能,可以帮助用户快速地检索和管理大量的文本数据。本篇文章将详细介绍如何使用Lucene3.0来创建索引,并通过一个具体的例子来演示整个过程。 #### 一、Lucene3.0简介 Lucene是一...

    lucene3.0 lucene3.0

    lucene3.0 lucene3.0 lucene3.0 lucene3.0 lucene3.0

    lucene3.0庖丁+索引搜索程序

    《深入剖析Lucene3.0:庖丁解牛与索引搜索实践》 在IT行业中,搜索引擎技术扮演着至关重要的角色,而Lucene作为一个开源全文检索库,为开发者提供了强大的文本搜索功能。本文将深入探讨Lucene3.0版本,结合“庖丁解...

    分词lucene

    http://lucene.apache.org (lucene-4.0.0.zip ) 中文分词器: 1. http://code.google.com/p/ik-analyzer/ (IK_Analyzer_2012FF_hf1.zip) 2. https://code.google.com/p/mmseg4j/ (mmseg4j-1.9.1.v20130120-...

    lucene.net 2.0.4

    2. 增强的性能:通过优化内部数据结构和算法,Lucene.NET 2.0.4在搜索速度和内存使用上都有显著提升。 3. 存储选项:可以选择存储字段以供检索,或者仅索引字段以进行搜索,以平衡存储空间和搜索性能。 4. 多语言...

    Lucene3.0之查询类型详解

    【Lucene3.0查询类型详解】 在Lucene3.0中,查询处理是一个关键环节,涉及多种查询方式和理论模型。以下是对这些概念的详细解释: 1. **查询方式**: - **顺序查询**:是最简单的查询方式,直接遍历索引,效率较...

    lucene3.0核心jar包

    在 Lucene 3.0 中,索引过程包括分词、字段处理、文档ID分配等步骤,生成的索引文件包括词典、Posting List、Doc IDs 等组件。 2. **分词器(Analyzer)**:Lucene 提供了多种分词器,如 StandardAnalyzer、...

    与lucene3.0兼容的庖丁jar包

    Exception in thread "main" java.lang.AbstractMethodError: org.apache.lucene.analysis.TokenStream.incrementToken()Z at org.apache.lucene.index.DocInverterPerField.processFields(DocInverterPerField....

    lucene3.0使用介绍及实例

    import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.index.IndexWriter; import org...

    lucene3.0 实例

    索引是 Lucene 的关键,它将文本数据转换为倒排索引,以便快速查找匹配查询的文档。最后,搜索过程是基于查询对象进行的,用户输入查询字符串,Lucene 返回相关的文档列表。 在给定的实例中,有两个主要的类:一个...

    Lucene 3.0 原理与代码分析完整版

    《Lucene 3.0 原理与代码分析完整版》是一本深入解析Lucene 3.0搜索引擎库的专业书籍。Lucene是Apache软件基金会的开源项目,它为Java开发者提供了一个高性能、全文检索的工具包,广泛应用于各种信息检索系统。这...

    lucene 3.0 API 中文帮助文档 chm

    lucene 3.0 API中文帮助,学习的人懂得的

    lucene3.0-api.CHM

    《Lucene 3.0 API CHM指南》 Lucene是一个高性能、全文本搜索库,由Apache软件基金会开发,广泛应用于各种搜索引擎和信息检索系统。本指南主要关注的是Lucene 3.0版本的API,这是一个强大的工具集,用于在Java环境...

    Lucene3.0 使 用 教 程

    【Lucene3.0 使用教程】是针对Java开发者的一个指南,旨在教授如何利用Apache Lucene 3.0.1版本实现全文检索功能。Lucene是一个高性能、可伸缩的开源全文检索库,它提供了文本分析、索引创建、文档检索等核心功能。...

    Lucene.Net

    Apache Lucene.Net is a C# full-text search engine. Apache Lucene.Net is not a complete application, but rather a code library and API that can easily be used to add search capabilities to applications...

    Lucene3.0全文信息检索

    5. **增强的分析器**:Analyzer在3.0中有了更多可定制的选项,可以更好地处理各种语言和文本格式,支持更多的字符集和编码。 6. **更好的国际化支持**:Lucene 3.0增加了对多种语言的支持,包括中文,改进了对非...

    lucene3.0资料包

    在Lucene3.0中,索引是数据检索的基础。它通过将文本数据转换为倒排索引来实现快速查询。倒排索引将每个文档中的词项映射到包含这些词项的文档列表,使得搜索时可以迅速找到相关文档。在这一版本中,索引构建过程...

Global site tag (gtag.js) - Google Analytics