`
NEO_ONE
  • 浏览: 48641 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

lucene3.5例子

    博客分类:
  • Java
 
阅读更多
package com.lucene;

import java.io.*;
import java.util.HashMap;
import java.util.Iterator;
import java.util.Set;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.WhitespaceAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.IndexWriterConfig;
import org.apache.lucene.index.Term;
import org.apache.lucene.search.FuzzyQuery;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.TopScoreDocCollector;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.util.Version;

public class TestLucene {

	private static final File INDEX_PATH = new File(".\\index");// 索引文件位置
	private static final Analyzer ANALYZER = new WhitespaceAnalyzer(Version.LUCENE_35);
	//Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_35);
	//Analyzer analyzer = new WhitespaceAnalyzer(Version.LUCENE_35);

	static boolean buildIndex() {
		File readFile = new File(".\\duomicibiao.txt");
		HashMap<String, String> words = readFile(readFile);

		Document doc;
		if (words != null) {
			try {
				IndexWriterConfig writerConfig = new IndexWriterConfig(Version.LUCENE_35, ANALYZER);
				IndexWriter writer = new IndexWriter(FSDirectory.open(INDEX_PATH), writerConfig);

				Set<String> keys = words.keySet();

				for (Iterator<String> it = keys.iterator(); it.hasNext();) {
					String key = it.next();
					doc = new Document();
					Field index = new Field("index", key, Field.Store.YES,Field.Index.ANALYZED);
					Field contents = new Field("contents", words.get(key),Field.Store.YES, Field.Index.NO);
					doc.add(index);
					doc.add(contents);
					writer.addDocument(doc);
				}
				writer.close();// 这里不关闭建立索引会失败
				return true;
			} catch (Exception e) {
				e.printStackTrace();
				return false;
			}
		} else {
			System.out.println("文件读取错误");
			return false;
		}

	}

	static boolean noIndex() {
		File[] indexs = INDEX_PATH.listFiles();
		if (indexs.length == 0) {
			return true;
		} else {
			return false;
		}
	}

	static boolean deleteIndex() {
		File[] index = INDEX_PATH.listFiles();
		try {
			for (File file : index) {
				file.delete();
			}
		} catch (Exception e) {
			e.printStackTrace();
			return false;
		}
		return true;
	}	
	
	static HashMap<String, String> readFile(File file) {
		InputStream in = null;
		InputStreamReader inR = null;
		BufferedReader br = null;
		HashMap<String, String> wordsMap = new HashMap<String, String>();
		try {
			in = new FileInputStream(file);
			inR = new InputStreamReader(in, "gbk");
			br = new BufferedReader(inR);
			String line;
			while ((line = br.readLine()) != null) {
				wordsMap.put(line.trim(), line.trim());
			}
			return wordsMap;

		} catch (Exception e) {
			e.printStackTrace();
			return null;
		} finally {
			try {
				if (in != null)
					in.close();
				if (inR != null)
					inR.close();
				if (br != null)
					br.close();
			} catch (Exception e) {
				e.printStackTrace();
				return null;
			}
		}
	}

	static void search(String queryStr,int hitsPerPage) {
		try {
			IndexReader reader = IndexReader.open(FSDirectory.open(INDEX_PATH));
			IndexSearcher searcher = new IndexSearcher(reader);

			//Query query = new QueryParser(Version.LUCENE_35, "contents", ANALYZER).parse(queryStr + "~");
			Query query = new FuzzyQuery(new Term("index", queryStr));
			//Query query = new TermQuery(new Term("index", queryStr));
			
			TopScoreDocCollector collector = TopScoreDocCollector.create(hitsPerPage, true);
			searcher.search(query, collector);
			ScoreDoc[] hits = collector.topDocs().scoreDocs;

			if(hits.length > 0){
				for (int i = 0; i < hits.length; i++) {
					Document result = searcher.doc(hits[i].doc);
					System.out.println("【"+ i +"】" + hits[i].score + "    index:" + result.get("index") + "            contents:" + result.get("contents"));
				}
			}else{
				System.out.println("未找到结果");
			}
		} catch (Exception e) {
			System.out.println("Exception");
		}
	}

	public static void main(String[] args) {
		//deleteIndex();
		
		if (noIndex()) {
			buildIndex();
		}
		
		int resultSize = 20;
		
		search("张杰",resultSize);
	}
}
分享到:
评论

相关推荐

    关于lucene3.5的使用

    在“关于lucene3.5的使用”这个主题中,我们将深入探讨Lucene 3.5的关键特性、核心组件以及如何通过实例进行应用。首先,我们需要了解以下几个核心概念: 1. **索引(Index)**:Lucene 的工作基于索引,就像书籍的...

    lucene+中文IK分词器 例子

    总结来说,"lucene3.5 + ik中文分词器例子"是一个展示如何使用Lucene进行中文全文检索的示例,它涵盖了从数据抓取、分词处理、索引建立到查询执行的全过程。通过这个实例,开发者可以更好地理解和掌握Lucene与IK分词...

    Lucene使用教程

    例如,上面的例子中就包含了标题字段和内容字段。字段还可以指定是否存储、是否索引以及索引的方式等属性。 **3.4 词项(Term)** 词项是文档中经过分析器处理后的最小单位。例如,对于字段“content”的值...

    Lucene初级教程

    ### Lucene基础知识详解 #### 一、Lucene简介 **1.1 什么是Lucene** Lucene是一款高性能、全文检索的开源搜索引擎库,由Java语言编写。...这只是一个非常基础的例子,实际应用中可能还需要考虑更多细节和优化方案。

    solr 3.5 tomcat 整合可直接使用

    Solr是一个基于Apache Lucene的开源搜索平台,提供了高效、可扩展的全文检索、命中高亮、拼写检查、分类、 faceting等功能。而Tomcat则是一个流行的轻量级应用服务器,广泛用于部署Java Web应用程序。 **Solr 3.5...

    SOLR的应用教程

    3.5 如何进行索引操作? 3.5.1 基本索引操作 3.5.2 批量索引操作 3.6 如何进行搜索 3.6.1 搜索语法 3.6.2 排序 3.6.3 字段增加权重 3.6.4 Solr分词器、过滤器、分析器 3.6.5 Solr高亮使用 **四、SolrJ的用法** ...

    开源企业搜索引擎SOLR的应用教程

    - **3.5 如何进行索引操作?** - **3.5.1 基本索引操作**:使用Solr API或SolrJ向Solr服务器发送数据。 - **3.5.2 批量索引操作**:对于大数据量的索引任务,可以通过批量处理来提高效率。 - **3.6 如何进行搜索**...

    solr教材-PDF版

    **3.5 如何进行索引操作?** - **3.5.1 基本索引操作**:涵盖添加文档、删除文档等基本操作。 - **3.5.2 批量索引操作**:讲解如何高效地批量导入大量数据。 **3.6 如何进行搜索** - **3.6.1 搜索语法**:介绍...

    opencms内容管理

    - 通过创建导航条和导航列表等具体例子,加深对标签的理解。 #### 六、FLEXCACHE缓存机制 **6.1 介绍** - FLEXCACHE是OpenCMS中的缓存机制,用于提高网站响应速度。 **6.2 FLEXCACHE实例** - 通过几个实例演示...

    Solrj 中文教程

    ##### 3.2 一个简单的例子 - **3.2.1 SolrSchema设计**:为示例项目设计一个简单的索引结构。 - **3.2.2 构建索引**:向Solr添加文档以构建索引。 - **3.2.3 搜索测试**:执行搜索测试,验证索引是否正确建立。 ###...

    开源企业搜索引擎SOLR的 应用教程

    - **3.5 如何进行索引操作?** - **3.5.1 基本索引操作** 使用SolrJ API添加、删除文档等。 - **3.5.2 批量索引操作** 使用Solr的批量索引工具或API进行大规模数据导入。 **3.6 如何进行搜索** - **3.6.1 搜索...

    ZendFramework中文文档

    10.2.3.5. Fetching a Row as an Object 10.3. Zend_Db_Profiler 10.3.1. Introduction 10.3.2. Using the Profiler 10.3.3. Advanced Profiler Usage 10.3.3.1. Filter by query elapsed time 10.3.3.2. ...

    JAVA上百实例源码以及开源项目源代码

    EJB中JNDI的使用源码例子 1个目标文件,JNDI的使用例子,有源代码,可以下载参考,JNDI的使用,初始化Context,它是连接JNDI树的起始点,查找你要的对象,打印找到的对象,关闭Context…… ftp文件传输 2个目标文件...

Global site tag (gtag.js) - Google Analytics