package com.lucene;
import java.io.*;
import java.util.HashMap;
import java.util.Iterator;
import java.util.Set;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.WhitespaceAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.IndexWriterConfig;
import org.apache.lucene.index.Term;
import org.apache.lucene.search.FuzzyQuery;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.TopScoreDocCollector;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.util.Version;
public class TestLucene {
private static final File INDEX_PATH = new File(".\\index");// 索引文件位置
private static final Analyzer ANALYZER = new WhitespaceAnalyzer(Version.LUCENE_35);
//Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_35);
//Analyzer analyzer = new WhitespaceAnalyzer(Version.LUCENE_35);
static boolean buildIndex() {
File readFile = new File(".\\duomicibiao.txt");
HashMap<String, String> words = readFile(readFile);
Document doc;
if (words != null) {
try {
IndexWriterConfig writerConfig = new IndexWriterConfig(Version.LUCENE_35, ANALYZER);
IndexWriter writer = new IndexWriter(FSDirectory.open(INDEX_PATH), writerConfig);
Set<String> keys = words.keySet();
for (Iterator<String> it = keys.iterator(); it.hasNext();) {
String key = it.next();
doc = new Document();
Field index = new Field("index", key, Field.Store.YES,Field.Index.ANALYZED);
Field contents = new Field("contents", words.get(key),Field.Store.YES, Field.Index.NO);
doc.add(index);
doc.add(contents);
writer.addDocument(doc);
}
writer.close();// 这里不关闭建立索引会失败
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
} else {
System.out.println("文件读取错误");
return false;
}
}
static boolean noIndex() {
File[] indexs = INDEX_PATH.listFiles();
if (indexs.length == 0) {
return true;
} else {
return false;
}
}
static boolean deleteIndex() {
File[] index = INDEX_PATH.listFiles();
try {
for (File file : index) {
file.delete();
}
} catch (Exception e) {
e.printStackTrace();
return false;
}
return true;
}
static HashMap<String, String> readFile(File file) {
InputStream in = null;
InputStreamReader inR = null;
BufferedReader br = null;
HashMap<String, String> wordsMap = new HashMap<String, String>();
try {
in = new FileInputStream(file);
inR = new InputStreamReader(in, "gbk");
br = new BufferedReader(inR);
String line;
while ((line = br.readLine()) != null) {
wordsMap.put(line.trim(), line.trim());
}
return wordsMap;
} catch (Exception e) {
e.printStackTrace();
return null;
} finally {
try {
if (in != null)
in.close();
if (inR != null)
inR.close();
if (br != null)
br.close();
} catch (Exception e) {
e.printStackTrace();
return null;
}
}
}
static void search(String queryStr,int hitsPerPage) {
try {
IndexReader reader = IndexReader.open(FSDirectory.open(INDEX_PATH));
IndexSearcher searcher = new IndexSearcher(reader);
//Query query = new QueryParser(Version.LUCENE_35, "contents", ANALYZER).parse(queryStr + "~");
Query query = new FuzzyQuery(new Term("index", queryStr));
//Query query = new TermQuery(new Term("index", queryStr));
TopScoreDocCollector collector = TopScoreDocCollector.create(hitsPerPage, true);
searcher.search(query, collector);
ScoreDoc[] hits = collector.topDocs().scoreDocs;
if(hits.length > 0){
for (int i = 0; i < hits.length; i++) {
Document result = searcher.doc(hits[i].doc);
System.out.println("【"+ i +"】" + hits[i].score + " index:" + result.get("index") + " contents:" + result.get("contents"));
}
}else{
System.out.println("未找到结果");
}
} catch (Exception e) {
System.out.println("Exception");
}
}
public static void main(String[] args) {
//deleteIndex();
if (noIndex()) {
buildIndex();
}
int resultSize = 20;
search("张杰",resultSize);
}
}
分享到:
相关推荐
在“关于lucene3.5的使用”这个主题中,我们将深入探讨Lucene 3.5的关键特性、核心组件以及如何通过实例进行应用。首先,我们需要了解以下几个核心概念: 1. **索引(Index)**:Lucene 的工作基于索引,就像书籍的...
总结来说,"lucene3.5 + ik中文分词器例子"是一个展示如何使用Lucene进行中文全文检索的示例,它涵盖了从数据抓取、分词处理、索引建立到查询执行的全过程。通过这个实例,开发者可以更好地理解和掌握Lucene与IK分词...
例如,上面的例子中就包含了标题字段和内容字段。字段还可以指定是否存储、是否索引以及索引的方式等属性。 **3.4 词项(Term)** 词项是文档中经过分析器处理后的最小单位。例如,对于字段“content”的值...
### Lucene基础知识详解 #### 一、Lucene简介 **1.1 什么是Lucene** Lucene是一款高性能、全文检索的开源搜索引擎库,由Java语言编写。...这只是一个非常基础的例子,实际应用中可能还需要考虑更多细节和优化方案。
Solr是一个基于Apache Lucene的开源搜索平台,提供了高效、可扩展的全文检索、命中高亮、拼写检查、分类、 faceting等功能。而Tomcat则是一个流行的轻量级应用服务器,广泛用于部署Java Web应用程序。 **Solr 3.5...
3.5 如何进行索引操作? 3.5.1 基本索引操作 3.5.2 批量索引操作 3.6 如何进行搜索 3.6.1 搜索语法 3.6.2 排序 3.6.3 字段增加权重 3.6.4 Solr分词器、过滤器、分析器 3.6.5 Solr高亮使用 **四、SolrJ的用法** ...
- **3.5 如何进行索引操作?** - **3.5.1 基本索引操作**:使用Solr API或SolrJ向Solr服务器发送数据。 - **3.5.2 批量索引操作**:对于大数据量的索引任务,可以通过批量处理来提高效率。 - **3.6 如何进行搜索**...
**3.5 如何进行索引操作?** - **3.5.1 基本索引操作**:涵盖添加文档、删除文档等基本操作。 - **3.5.2 批量索引操作**:讲解如何高效地批量导入大量数据。 **3.6 如何进行搜索** - **3.6.1 搜索语法**:介绍...
- 通过创建导航条和导航列表等具体例子,加深对标签的理解。 #### 六、FLEXCACHE缓存机制 **6.1 介绍** - FLEXCACHE是OpenCMS中的缓存机制,用于提高网站响应速度。 **6.2 FLEXCACHE实例** - 通过几个实例演示...
##### 3.2 一个简单的例子 - **3.2.1 SolrSchema设计**:为示例项目设计一个简单的索引结构。 - **3.2.2 构建索引**:向Solr添加文档以构建索引。 - **3.2.3 搜索测试**:执行搜索测试,验证索引是否正确建立。 ###...
- **3.5 如何进行索引操作?** - **3.5.1 基本索引操作** 使用SolrJ API添加、删除文档等。 - **3.5.2 批量索引操作** 使用Solr的批量索引工具或API进行大规模数据导入。 **3.6 如何进行搜索** - **3.6.1 搜索...
10.2.3.5. Fetching a Row as an Object 10.3. Zend_Db_Profiler 10.3.1. Introduction 10.3.2. Using the Profiler 10.3.3. Advanced Profiler Usage 10.3.3.1. Filter by query elapsed time 10.3.3.2. ...
EJB中JNDI的使用源码例子 1个目标文件,JNDI的使用例子,有源代码,可以下载参考,JNDI的使用,初始化Context,它是连接JNDI树的起始点,查找你要的对象,打印找到的对象,关闭Context…… ftp文件传输 2个目标文件...