`
robin_liang
  • 浏览: 2435 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Lucene 3.0学习笔记-使用索引查询

阅读更多

这是一段实施基本搜索功能的代码示例:

Directory dir = FSDirectory.open(new File("index")));  
IndexSearcher searcher = new IndexSearcher(dir, true);  
Query q = new TermQuery(new Term("contents", "java"));  
TopDocs hits = searcher.search(q, 10);  
searcher.close();  

 使用索引进行查询的主要步骤:

1、打开已有的索引,创建IndexSearcher对象

2、指定查询用到的Field和查询字符串,创建TermQuery

3、使用IndexSearcher进行查询,查询结果以TopDocs对象返回。在这里search方法的第二个参数指定返回前N个记录。



主要对象说明:

1、Term

     Term是查询使用的基本单位,对应与在索引中使用的Field类。可以将其理解为一个map,其中key为索引中Field name,value为查询字符串。

     当查询字符串为一个单词的情况下,不会有任何问题;但是当需要查询查询字符串为多个单词或是一句话的时候就会查不出来。这个主要原因是,在建立索引时我们 对Field中的内容进行了分词,但在查询时,对查询字符串没有做分词,整个做为一个单词处理,当然查不到了。

     要解决这个问题,针对上面的例子,只需要去掉new TermQuery这句,换成下面的代码:
//处理输入的查询字符串

Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_CURRENT);  
QueryParser parser = new QueryParser(Version.LUCENE_CURRENT, "java", analyzer);  
Query query = parser.parse(queries);

 

这里需要保证使用的analyzer与建立索引时用的一样即可。new QueryParser的第二个参数就是查询字符串。

     我们用query.toString()可以看到转化后的Term内容。

•当查询字符串="java"时,query.toString()=contents:java (前面为field name,后面为查询内容)
•当查询字符串="java and system"时,query.toString()=contents:java contents:system。可见已经被做了分词,同时去掉了连接字and
2、TopDocs

     此类封装了返回的符合条件的记录,其中:

•totalHits为符合条件的记录总数;
•scoreDocs为符合条件记录的数组,不过里面只记录了Document的ID。Document的实际内容,需通过IndexSearcher取docID对应的Document才能得到。
     需要注意-若设置在search方法中设置了返回记录数为N,则scoreDocs最多只会包含前N个文档;但是totalHits会返回匹配的总数量 (类似google中显示的匹配的总页面数量)。scoreDocs.length可能不等于totalHits,做scoreDocs遍历时,直接用 totalHits做为数组大小用的,容易引起bug!



     另外取符合条件Document实际内容的代码如下:

//显示查询结果,字段包括:路径、修改时

private void printDocs(Searcher searcher, TopDocs docs) {
		try {
			System.out.println("Find " + docs.totalHits + " files!");
			ScoreDoc[] sd = docs.scoreDocs;
			for (int i = 0; i < sd.length; i++) {
				Document doc = searcher.doc(sd[i].doc);
				System.out.println("Path:" + doc.get("path") + "; modified:" + doc.get("modified"));
			}
		} catch (Exception ex) {
			System.out.println(ex.getMessage());
		}
	}

 DEMO:

public class Indexer {  
  
    /** 
     * @param args 
     * @throws IOException  
     */  
    public static void main(String[] args) throws IOException {  
        //保存索引文件的地方  
        String indexDir = "c:\\indexDir";  
        //将要搜索TXT文件的地方  
        String dateDir = "c:\\dateDir";  
        IndexWriter indexWriter = null;  
        //创建Directory对象  
        Directory dir = new SimpleFSDirectory(new File(indexDir));  
        // 创建IndexWriter对象,第一个参数是Directory,第二个是分词器,第三个表示是否是创建,如果为false为在此基础上面修改,第四表示表示分词的最大值,比如说new MaxFieldLength(2),就表示两个字一分,一般用 IndexWriter.MaxFieldLength.LIMITED   
        indexWriter = new IndexWriter(dir,new StandardAnalyzer(Version.LUCENE_30),true,IndexWriter.MaxFieldLength.UNLIMITED);  
        File[] files = new File(dateDir).listFiles();  
        for (int i = 0; i < files.length; i++) {  
            Document doc = new Document();  
            //创建Field对象,并放入doc对象中  
            doc.add(new Field("contents", new FileReader(files[i])));   
            doc.add(new Field("filename", files[i].getName(),   
                                Field.Store.YES, Field.Index.NOT_ANALYZED));  
            doc.add(new Field("indexDate",DateTools.dateToString(new Date(), DateTools.Resolution.DAY),Field.Store.YES,Field.Index.NOT_ANALYZED));  
            //写入IndexWriter  
            indexWriter.addDocument(doc);  
        }  
        //查看IndexWriter里面有多少个索引  
        System.out.println("numDocs"+indexWriter.numDocs());  
        indexWriter.optimize();  
        indexWriter.close();  
          
    }  
  
}  

 

 

public class Searcher {  
  
    public static void main(String[] args) throws IOException, ParseException {  
        //保存索引文件的地方  
        String indexDir = "c:\\indexDir";  
        Directory dir = new SimpleFSDirectory(new File(indexDir));  
        //创建 IndexSearcher对象,相比IndexWriter对象,这个参数就要提供一个索引的目录就行了  
        IndexSearcher indexSearch = new IndexSearcher(dir);  
        //创建QueryParser对象,第一个参数表示Lucene的版本,第二个表示搜索Field的字段,第三个表示搜索使用分词器  
        QueryParser queryParser = new QueryParser(Version.LUCENE_30,  
                "contents", new StandardAnalyzer(Version.LUCENE_30));  
        //生成Query对象  
        Query query = queryParser.parse("liliugen");  
        //搜索结果 TopDocs里面有scoreDocs[]数组,里面保存着索引值  
        TopDocs hits = indexSearch.search(query, 10);  
        //hits.totalHits表示一共搜到多少个  
        System.out.println("找到了"+hits.totalHits+"个");  
        //循环hits.scoreDocs数据,并使用indexSearch.doc方法把Document还原,再拿出对应的字段的值  
        for (int i = 0; i < hits.scoreDocs.length; i++) {  
            ScoreDoc sdoc = hits.scoreDocs[i];  
            Document doc = indexSearch.doc(sdoc.doc);  
            System.out.println(doc.get("filename"));              
        }         
        indexSearch.close();  
    }  
} 
 
分享到:
评论

相关推荐

    lucene3.0 lucene3.0

    lucene3.0 lucene3.0 lucene3.0 lucene3.0 lucene3.0

    Lucene3.0之查询类型详解

    【Lucene3.0查询类型详解】 在Lucene3.0中,查询处理是一个关键环节,涉及多种查询方式和理论模型。以下是对这些概念的详细解释: 1. **查询方式**: - **顺序查询**:是最简单的查询方式,直接遍历索引,效率较...

    lucene3.0学习笔记(三)与paoding整合

    《Lucene 3.0 学习笔记(三)与Paoding整合》 在深入了解Lucene 3.0的过程中,我们经常会遇到如何将其与第三方工具进行整合的问题,以提升搜索性能和用户体验。这篇学习笔记主要关注的是将Lucene 3.0与Paoding搜索...

    适合lucene3.0用的paoding-analysis的jar包

    然后,开发者需要在Lucene的索引创建和查询过程中,替换默认的Analyzer为PaodingAnalyzer,以便利用其中文分词能力。 集成步骤大致如下: 1. 引入Paoding-Analysis和Spring兼容的jar包到项目类路径。 2. 在配置文件...

    lucene3.0-highlighter.jar

    lucene3.0-highlighter.jar lucene3.0的高亮jar包,从lucene3.0源码中导出来的

    lucene 3.0 API 中文帮助文档 chm

    lucene 3.0 API中文帮助,学习的人懂得的

    Lucene3.0 使 用 教 程

    在实践中,开发者需要学习如何使用Lucene API来创建索引,包括读取数据源、实例化文档对象、定义字段和分析器,然后使用索引writer将文档添加到索引库。查询时,需要创建查询对象,使用查询执行器在索引库中执行查询...

    lucene3.0庖丁+索引搜索程序

    在“NewestPaoding”文件中,包含了使用Lucene3.0进行索引搜索的代码示例。这通常包括以下步骤: 1. 创建索引:首先,我们需要读取源数据(如文本文件或数据库记录),然后使用Analyzer进行分词处理,生成Term,并...

    Lucene3.0创建索引

    本篇文章将详细介绍如何使用Lucene3.0来创建索引,并通过一个具体的例子来演示整个过程。 #### 一、Lucene3.0简介 Lucene是一款高性能、全功能的全文搜索引擎库。它为开发者提供了构建搜索应用所需的所有基本工具...

    Lucene 3.0 原理与代码分析

    总之,Lucene 3.0的原理与代码分析为我们揭示了全文检索引擎的工作机制,这些基础知识对于理解和使用任何版本的Lucene都至关重要。通过深入学习,开发者可以更好地利用Lucene构建高效、精准的搜索系统。

    lucene3.0使用介绍及实例

    doc.add(new Field("title", "Lucene 3.0使用介绍", Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("content", "这是一个关于Lucene 3.0的实例教程。", Field.Store.YES, Field.Index.ANALYZED)); ...

    lucene3.0核心jar包

    8. **多线程支持**:Lucene 3.0 允许在多线程环境中使用,开发者可以利用并发特性来提高索引和搜索的速度,但需要注意同步问题,避免数据竞争。 9. **扩展性**:Lucene 3.0 提供了丰富的API,允许开发者自定义分词...

    Lucene 3.0 原理与代码分析完整版

    通过对《Lucene 3.0 原理与代码分析完整版》的学习,开发者不仅可以理解Lucene的工作原理,还能掌握如何定制化Lucene以满足特定需求,从而在实际项目中充分利用其强大功能。这本书是深入研究和应用Lucene不可或缺的...

    lucene-analyzers-smartcn-7.7.0-API文档-中文版.zip

    赠送jar包:lucene-analyzers-smartcn-7.7.0.jar; 赠送原API文档:lucene-analyzers-smartcn-7.7.0-javadoc.jar; 赠送源代码:lucene-analyzers-smartcn-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-...

    lucene3.0-api.CHM

    《Lucene 3.0 API CHM指南》 Lucene是一个高性能、全文本搜索库,由Apache软件基金会开发,广泛应用于各种搜索引擎和信息检索系统。本指南主要关注的是Lucene 3.0版本的API,这是一个强大的工具集,用于在Java环境...

    lucene-core-7.7.0-API文档-中文版.zip

    赠送jar包:lucene-core-7.7.0.jar; 赠送原API文档:lucene-core-7.7.0-javadoc.jar; 赠送源代码:lucene-core-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-core-7.7.0.pom; 包含翻译后的API文档:lucene...

    Lucene 3.0完成入门

    通过以上内容的学习,你可以掌握 Lucene 3.0 的基本操作,包括如何创建索引、执行查询、优化搜索性能等。同时,了解 Compass 如何简化 Lucene 的使用,以及如何结合实际业务需求来设计和实现一个搜索引擎。在实践中...

    lucene3.0资料包

    总结,Lucene3.0是全文检索领域的一个强大工具,其索引构建、分词、查询解析、搜索算法等功能在当时具有很高的技术水平,并且具有高度的灵活性和扩展性。通过深入学习和应用Lucene3.0,开发者可以构建出高效、智能的...

    Lucene3.0全文信息检索

    3. **内存管理优化**:Lucene 3.0改进了内存使用策略,降低了内存占用,同时提升了索引和搜索的性能。 4. **查询性能提升**:通过引入更智能的缓存机制,以及对查询执行路径的优化,使得复杂查询的响应时间缩短。 ...

Global site tag (gtag.js) - Google Analytics