`
wjboy49
  • 浏览: 284719 次
  • 性别: Icon_minigender_1
  • 来自: 湖南岳阳
社区版块
存档分类
最新评论

Lucene 2.3.1 阅读学习(41)

阅读更多

当执行Hits htis = search(query);这一行代码的时候,到底中间经过了怎样的过程,最终使得我们获取到了含有检索结果的集合Hits hits呢?

这里,以最简单的检索为例,追踪并理解Lucene(2.2.0版本)获取到检索结果的过程。

1、 IndexSearcher继承自Searcher类的最简单的search方法,如下所示:

public final Hits search(Query query) throws IOException {
    return search (query, (Filter)null);
}

这里,调用了Searcher类的带有两个参数的search方法,返回Hits,如下所示:

public Hits search(Query query, Filter filter) throws IOException {
    return new Hits (this, query, filter);
}

这时,是通过根据传递进来的Query、Filter(简单地考虑,Filter=null)和实例化的Searcher来构造一个Hits的,其实,没有那么简单,想也能想得到,一定是在Hits类中,通过Searcher实例进行了具体的检索过程。

Hits类拥有如下成员:

private Weight weight;
private Searcher searcher;
private Filter filter = null;
private Sort sort = null;

private int length;      // 检索到的匹配的Document的个数
private Vector hitDocs = new Vector();   // 最终将检索命中的Document(封装到Hit中,包含了一个Document的丰富信息)放到hitDocs中,取出来呈现给检索的用户

private HitDoc first;         // head of LRU cache
private HitDoc last;          // tail of LRU cache
private int numDocs = 0;      // number cached
private int maxDocs = 200;    // max to cache

2、 在Hits类中,只有构造好了含有检索结果的Hits才是最终的检索目标,如下所示:

Hits(Searcher s, Query q, Filter f) throws IOException {
    weight = q.weight(s);
    searcher = s;
    filter = f;
    getMoreDocs (50); // 缓存检索结果50*2=100个
}

因为一个Query实例需要被多次使用,故而使用Weight来记录Query的状态。重点看在Hits类调用getMoreDocs方法,该方法实现如下:

private final void getMoreDocs(int min) throws IOException {
    if (hitDocs.size() > min) {    // hitDocs.size() <min=50,说明缓存的结果数量小于预计要加入到缓存中的结果的数量,因此不执行该if分支,无需改变min(缓存容量)的大小
      min = hitDocs.size();
    }

    int n = min * 2; // 由50变成100,目的是:直接扩充缓存为原来的2倍,缓存双倍的检索结果以备用户直接从缓存中提取检索结果;间接地一次性为HitQueue(优先级队列)分配大小,防止频繁分配增加系统开销
    TopDocs topDocs = (sort == null) ? searcher.search (weight, filter, n) : searcher.search(weight, filter, n, sort);
    length = topDocs.totalHits;
    ScoreDoc[] scoreDocs = topDocs.scoreDocs;

    float scoreNorm = 1.0f;
   
    if (length > 0 && topDocs.getMaxScore() > 1.0f) {
      scoreNorm = 1.0f / topDocs.getMaxScore();
    }

    int end = scoreDocs.length < length ? scoreDocs.length : length;
    for (int i = hitDocs.size(); i < end; i++) {
      hitDocs.addElement(new HitDoc(scoreDocs[i].score * scoreNorm,
                                    scoreDocs[i].doc));
    }
}

第一次调用该方法的时候,作为Hits类的一个成员private Vector hitDocs = new Vector();,它是用作缓存检索结果的。

当sort == null)的时候,执行searcher.search(weight, filter, n),这时,又回到了IndexSearcher类中,执行含有三个参数的重载search方法(见下文),返回检索结果存放于TopDocs topDocs中。关于TopDocs有必要熟悉一下:

public class TopDocs implements java.io.Serializable {
public int totalHits;
public ScoreDoc[] scoreDocs;
private float maxScore;
public float getMaxScore() {
      return maxScore;
}
public void setMaxScore(float maxScore) {
      this.maxScore=maxScore;
}
TopDocs(int totalHits, ScoreDoc[] scoreDocs, float maxScore) {
    this.totalHits = totalHits;
    this.scoreDocs = scoreDocs;
    this.maxScore = maxScore;
}
}

totalHits成员是本次查询Query检索到的Hits的总数;maxScore成员是最大分数。

ScoreDoc[]成员就是从所有满足查询Query的得分不为0的Document的数组,根据要求选择前n个Docunent返回,它包含Document的编号和得分这两个成员:

package org.apache.lucene.search;
public class ScoreDoc implements java.io.Serializable {
public float score;
public int doc;
public ScoreDoc(int doc, float score) {
    this.doc = doc;
    this.score = score;
}
}

接着,根据返回的TopDocs topDocs取得其长度length = topDocs.totalHits;用来计算得分标准化因子,以对检索结果按照得分进行排序,并把相关的检索结果缓存到hitDocs中。

3、 在IndexSearcher类中,根据searcher.search(weight, filter, n),执行public TopDocs search(Weight weight, Filter filter, final int nDocs)方法,如下所示:

public TopDocs search(Weight weight, Filter filter, final int nDocs)
       throws IOException {

    if (nDocs <= 0) // nDocs=n=2*50=100
      throw new IllegalArgumentException("nDocs must be > 0");

    TopDocCollector collector = new TopDocCollector(nDocs);
    search (weight, filter, collector);
    return collector.topDocs();
}

上面,构造了一个TopDocCollector实例,使用如下构造方法:

public TopDocCollector(int numHits) {
    this(numHits, new HitQueue(numHits));
}

调用重载的构造方法TopDocCollector(int numHits, PriorityQueue hq),初始化一个Hit的优先级队列,大小为100。其实,关于Hit的优先级队列就是这样的:对于ScoreDoc hitA和ScoreDoc hitB,如果hitA.score>=hitB.score,则选择hitA入队列。

根据构造的TopDocCollector collector,再次调用IndexSearcher类的另一个不同的重载的search方法search(weight, filter, collector);,将检索结果存放到了TopDocCollector collector中,最后根据TopDocCollector collector返回TopDocs。

关于search(weight, filter, collector);调用,实现如下所示:

public void search(Weight weight, Filter filter,
                     final HitCollector results) throws IOException {
    HitCollector collector = results;
    if (filter != null) {    // 我们一直设定Filter=null,该分支不执行
      final BitSet bits = filter.bits(reader);
      collector = new HitCollector() {
          public final void collect(int doc, float score) {
            if (bits.get(doc)) {                  // skip docs not in bits
              results.collect(doc, score);
            }
          }
        };
    }

    Scorer scorer = weight.scorer (reader);
    if (scorer == null)
      return;
    scorer.score (collector);
}

先看Scorer scorer,通过weight的scorer方法获取到一个Scorer,在内部类org.apache.lucene.search.TermQuery.TermWeight中可以看到TermWeight的score方法如何实现的:

    public Scorer scorer(IndexReader reader) throws IOException {
      TermDocs termDocs = reader.termDocs (term);

      if (termDocs == null)
        return null;

      return new TermScorer(this, termDocs, similarity,reader.norms(term.field()));
    }

通过IndexReader reader获取到一个TermDocs,其中TermDocs是与检索相关的(即查询中使用Term构造了查询)包含Term的所有<document, frequency>对,document为Document的编号,frequency为Term在该Document中出现的频率(次数)。

执行reader.termDocs(term);时,调用了IndexReader类的termDocs方法,如下所示:

public TermDocs termDocs(Term term) throws IOException {
    ensureOpen();
    TermDocs termDocs = termDocs();
    termDocs.seek(term);
    return termDocs;
}

TermScorer是Scorer的子类,它有如下一些成员:

private Weight weight;
private TermDocs termDocs;
private byte[] norms;
private float weightValue;
private int doc;

private final int[] docs = new int[32];         // buffered doc numbers
private final int[] freqs = new int[32];        // buffered term freqs
private int pointer;
private int pointerMax;

private static final int SCORE_CACHE_SIZE = 32;
private float[] scoreCache = new float[SCORE_CACHE_SIZE];

通过这些成员,我们能够知道返回一个TermScorer对象都包含哪些内容,从而为使用Scorer scorer = weight.scorer(reader);便于理解。

weight.scorer(reader) 返回的是一个Scorer,它是用来迭代得分与查询匹配的Docuemnt的。

最后,执行scorer.score(collector);,最终的检索结果可以直接从一个HitCollector collector中提取出来,返回最终的检索结果。

Scorer类的score方法如下:

public void score(HitCollector hc) throws IOException {
    while (next()) {
      hc.collect (doc(), score());
    }
}

再看TopDocCollector(extends HitCollector)类的collect方法的实现:

public void collect(int doc, float score) {
    if (score > 0.0f) {
      totalHits++;
      if (hq.size() < numHits || score >= minScore) {
        hq.insert(new ScoreDoc(doc, score));
        minScore = ((ScoreDoc)hq.top()).score; // maintain minScore
      }
    }
}

根据Document的编号和得分,调整Hit的优先级队列,获得满足条件的Docuemt的集合,最终构造出ScoreDoc,实际上是得到了一个ScoreDoc[]数组,从而访问TopDocs的这个ScoreDoc[]成员,就返回了最终检索的结果集合。

分享到:
评论

相关推荐

    Lucene-2.3.1 源代码阅读学习

    《Lucene-2.3.1 源代码阅读学习》 Lucene是Apache软件基金会的一个开放源码项目,它是一个高性能、全文本搜索库,为开发者提供了在Java应用程序中实现全文检索功能的基础架构。本篇文章将深入探讨Lucene 2.3.1版本...

    lucene2.3.1

    标题“lucene2.3.1”指的是Lucene的2.3.1版本,这个版本在当时是广泛使用的,具有一定的稳定性和成熟度。 Lucene的核心功能包括文档索引、搜索以及结果排序。其工作原理可以分为以下几个关键步骤: 1. 文档分析与...

    lucene-2.3.1.jar

    《Lucene 2.3.1.jar:洞察搜索引擎的核心技术》 在信息技术的海洋中,搜索引擎扮演着至关重要的角色,而Lucene则是其中的一颗璀璨明珠。作为一个开源全文检索库,Lucene为开发者提供了强大的文本搜索功能。在这里,...

    lucene.net 2.3.1开源项目二部分

    lucene.net2.3.1开源项目 lucene是一个开源的全文检索项目,原本是java版的,后来就有了.net版,我上传的这个是.net的2.3.1版本,帮助大家解决全文检索引擎。

    Lucene.Net2.3.1开发介绍 分词(二)

    这个文档对lucene进行了介绍并且进行深入的使用,文档分开发了,网络太慢了。。。

    lucene.net 2.3.1 开源项目一部分

    lucene.net2.3.1开源项目 lucene是一个开源的全文检索项目,原本是java版的,后来就有了.net版,我上传的这个是.net的2.3.1版本。解决全文检索引擎。此为一部分,二部分打开地址...

    lucene.net 2.3.1

    lucene.net 2.3.1,基于lucene.net可构建强大的搜索功能。

    Lucene.Net 2.3.1开发介绍 —— 二、分词(四)

    Lucene.Net 2.3.1开发介绍 —— 二、分词(四),这是一个系列的文档,太多了,只好分开

    lucene-core-2.3.1.jar

    lucene-core-2.3.1.jar

    lucene jar包

    本次我们将围绕“lucene jar包”这一主题,深入探讨Lucene 2.3.1版本的相关知识点。 一、Lucene概述 Lucene最初由Doug Cutting创建,现已成为Apache软件基金会的一部分。它是一个高性能、可扩展的信息检索库,主要...

    Lucene.Net2.9.1

    **Lucene.Net 2.9.1:一个强大的全文搜索引擎库** **一、Lucene.Net 简介** Lucene.Net 是 Apache Lucene 搜索引擎库的 .NET 版本...通过深入学习和实践,开发者可以利用 Lucene.Net 构建出高效、准确的全文搜索系统。

    Lucene.Net2.3源码,最新版

    通过深入学习和理解这些源代码文件,开发者可以更好地掌握 Lucene.Net 的核心功能,如索引构建、查询解析、搜索排序、分词和性能优化。这有助于在实际项目中实现高效、精确的全文搜索引擎。同时,研究源码也能提升对...

    lucenenet2.3.1盘古分词示例

    《Lucene.NET 2.3.1与盘古分词结合的深度实践》 在信息检索和搜索引擎领域,Lucene.NET作为一个开源、高性能的全文检索库,被广泛应用于各种应用场景。而盘古分词作为针对中文处理的优秀分词工具,能够有效地对中文...

    lucene学习笔记

    ### Lucene.NET 2.3.1 学习笔记 #### 一、Lucene.NET 简介 Lucene.NET 是一个高性能、全功能的文本搜索引擎库,它为.NET平台提供了一个灵活且强大的全文检索解决方案。该库允许开发者将搜索功能集成到应用程序中,...

    lucene.net+盘古分词多条件全文检索并匹配度排序

    lucene.net的版本为2.9.2 盘古分词的版本为2.3.1 并实现了高亮功能。高亮上使用的是盘古分词的高亮算法。 有点小bug,在这个字段没有关键字的时候可能会不显示数据, 如果要是只看全文检索,可以自己去掉高亮,看...

    elasticsearch-2.3.1.tar.gz

    这个版本的Elasticsearch是基于Lucene库构建的,适用于各种用途,包括日志分析、监控、信息检索以及大数据的存储和分析。 在Linux环境下安装Elasticsearch 2.3.1,首先需要确保系统满足以下前提条件: 1. **Java...

    elasticsearch-2.3.1 ik ansj head

    Elasticsearch是一个强大的开源搜索引擎,基于Lucene库构建,提供了分布式、实时、高可用的全文检索服务。在2.3.1版本中,它已经集成了两种常用的中文分词器:IK分词器和Ansj分词器,以及Head插件,这为中文文档的...

    Lucene.Net_2_3_1.rar

    **Lucene.Net 2.3.1:全中文解析与应用指南** Lucene.Net是一个开源、高性能的全文检索库,它是Apache Lucene项目在.NET平台上的实现。这个库为开发者提供了一种简单而强大的方式来集成全文搜索功能到他们的应用...

    lucene demo

    ### 示例:使用 Lucene.NET 2.3.1 版本 对于 `lucene.net-2.3.1` 这个版本,你需要按照当时的 API 文档进行操作。首先,创建索引目录,然后实例化 `IndexWriter`,接着使用 `Document` 类添加文档,最后关闭 `...

Global site tag (gtag.js) - Google Analytics