我把lucene2.4发行包的一个例子改的更简单些,仅供参考,其中在eclipse中运行遇到中文乱码问题,这些在代码中会有体现。
完成这个例子后,我顺便试了一下qieqie
的庖丁解牛中文分词器,很好用,而且分发包中有个简单的说明文档。
package tutorial;
import java.io.File;
import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.IOException;
import java.io.InputStreamReader;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexWriter;
public class IndexFiles {
public static void main(String[] args) {
long start = System.currentTimeMillis();
try {
IndexWriter writer = new IndexWriter("index",
new StandardAnalyzer(), true,
IndexWriter.MaxFieldLength.LIMITED);
indexDocs(writer, new File("data"));
writer.optimize();
writer.close();
System.out.println("用时:" + (System.currentTimeMillis() - start)
+ " 毫秒");
} catch (IOException e) {
e.printStackTrace();
}
}
static void indexDocs(IndexWriter writer, File file) throws IOException {
if (file.canRead()) {
if (file.isDirectory()) {
String[] files = file.list();
if (files != null) {
for (int i = 0; i < files.length; i++) {
indexDocs(writer, new File(file, files[i]));
}
}
} else {
System.out.println("添加 " + file);
try {
//针对参数文件建立索引文档
Document doc = new Document();
//Field.Index.NOT_ANALYZED 文件名称 建立索引,但不分词
doc.add(new Field("filename", file.getCanonicalPath(),
Field.Store.YES, Field.Index.NOT_ANALYZED));
doc.add(new Field("contents",
new InputStreamReader(new FileInputStream(file.getCanonicalPath()), "utf-8")));
//在writer中加入此文档
writer.addDocument(doc);
//抛弃了原来demo中的如下做法,因为这样不能设定字符编码,当出现因为编码为题查不到
//中文字符时,便束手无策。
//writer.addDocument(FileDocument.Document(file));
} catch (FileNotFoundException fnfe) {
;
}
}
}
}
}
package tutorial;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.queryParser.QueryParser;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.Searcher;
import org.apache.lucene.search.TopDocCollector;
public class SearchFiles {
public static void main(String[] args) throws Exception {
IndexReader reader = IndexReader.open("index");
Searcher searcher = new IndexSearcher(reader);
Analyzer analyzer = new StandardAnalyzer();
BufferedReader in = new BufferedReader(new InputStreamReader(System.in));
String field = "contents";
QueryParser parser = new QueryParser(field, analyzer);
String queries = null;
Query query = null;
while (true) {
if (queries == null) {
System.out.print("输入查询词(quit or exit 退出): ");
}
String line = in.readLine();
if (line == null || line.length() == -1) {
continue;
} else if (line.equals("quit") || line.equals("exit")) {
break;
}
line = line.trim();
query = parser.parse(line);
System.out.println("查询: " + query.toString(field));
long start = System.currentTimeMillis();
doPagingSearch(searcher, query, 5);
System.out.println("用时:" + (System.currentTimeMillis() - start)
+ " 毫秒");
}
reader.close();
}
public static void doPagingSearch(Searcher searcher, Query query,
int hitsPerPage) throws IOException {
TopDocCollector collector = new TopDocCollector(5 * hitsPerPage);
searcher.search(query, collector);
ScoreDoc[] hits = collector.topDocs().scoreDocs;
int numTotalHits = collector.getTotalHits();
System.out.println("符合查询词的文件数:" + numTotalHits);
int start = 0;
int end = Math.min(numTotalHits, hitsPerPage);
for (int i = start; i < end; i++) {
Document doc = searcher.doc(hits[i].doc);
String path = doc.get("filename");
if (path != null) {
System.out.println((i + 1) + ". " + path);
} else {
System.out.println((i + 1) + ". " + "沒有这个目录指定的文件");
}
}
}
}
也许我的进度有点缓慢,因为这两天有点事,且总是心神不宁的。今天去火车站买票了,给我的感觉是跟我平常买票没什么区别,我很容易就买到票了,而且还有座位。也许是因为家近的原因吧。或者是我买的日期不是一个高峰点。
2009-01-12
下面是从庖丁文档里粘出来的,并为了适应版本2.4做了部分修改的代码:
package tutorial;
import net.paoding.analysis.analyzer.PaodingAnalyzer;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.TermPositionVector;
import org.apache.lucene.queryParser.QueryParser;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.Searcher;
import org.apache.lucene.search.TopDocCollector;
import org.apache.lucene.search.highlight.Formatter;
import org.apache.lucene.search.highlight.Highlighter;
import org.apache.lucene.search.highlight.QueryScorer;
import org.apache.lucene.search.highlight.TokenGroup;
import org.apache.lucene.search.highlight.TokenSources;
public class PaodingExample {
public static void main(String[] args) throws Exception {
String IDNEX_PATH = "index";
// 获取Paoding中文分词器
Analyzer analyzer = new PaodingAnalyzer();
// 建立索引
IndexWriter writer = new IndexWriter(IDNEX_PATH, analyzer, true, IndexWriter.MaxFieldLength.LIMITED);
Document doc = new Document();
Field field = new Field("content", "你好,世界!", Field.Store.YES,
Field.Index.ANALYZED, Field.TermVector.WITH_POSITIONS_OFFSETS);
doc.add(field);
writer.addDocument(doc);
writer.close();
System.out.println("Indexed success!");
// 检索
IndexReader reader = IndexReader.open(IDNEX_PATH);
QueryParser parser = new QueryParser("content", analyzer);
Query query = parser.parse("你好");
Searcher searcher = new IndexSearcher(reader);
TopDocCollector collector = new TopDocCollector(5);
searcher.search(query, collector);
ScoreDoc[] hits = collector.topDocs().scoreDocs;
if (collector.getTotalHits() == 0) {
System.out.println("hits.length=0");
System.exit(0);
}
Document doc2 = searcher.doc(hits[0].doc);
// 高亮处理
String text = doc2.get("content");
TermPositionVector tpv = (TermPositionVector) reader.getTermFreqVector(
0, "content");
TokenStream ts = TokenSources.getTokenStream(tpv);
Formatter formatter = new Formatter() {
public String highlightTerm(String srcText, TokenGroup g) {
if (g.getTotalScore() <= 0) {
return srcText;
}
return "<b>" + srcText + "</b>";
}
};
Highlighter highlighter = new Highlighter(formatter, new QueryScorer(
query));
String result = highlighter.getBestFragments(ts, text, 5, "…");
System.out.println("result:\n\t" + result);
reader.close();
}
}
分享到:
相关推荐
【标题】"java拼车网雏形(Ext2.0+SSH+oracle10g+lucene2.4)" 涉及的核心技术是Java Web开发中的几个关键组件,包括ExtJS 2.0前端框架,Spring、Struts2和Hibernate(SSH)后端框架,Oracle 10g数据库以及Lucene ...
**Lucene 2.4 入门例子** Lucene 是一个高性能、全文本搜索库,由Apache软件基金会开发。它提供了强大的搜索功能,被广泛应用于各种应用中的信息检索。在这个入门例子中,我们将探讨Lucene 2.4版本的一些关键特性和...
**Lucene 2.4 入门指南** Lucene 是一个高性能、全文本搜索库,由 Apache 软件基金会开发。它提供了高级文本检索功能,广泛用于构建搜索引擎和其他需要高效全文检索能力的应用。本文将重点介绍 Lucene 2.4 版本的...
lucene 2.4 jar lucene2.4版本的JAR包
ictclas4j for lucene 2.4 任何人不得将此用于商业用途,仅限个人学习研究之用.该开源项目遵循Apache License 2.0
**Lucene 2.4 完美样例与中文文档详解** Lucene 是一个高性能、全文本搜索库,由 Apache 软件基金会开发。它为开发者提供了在 Java 应用程序中实现全文检索功能的强大工具。Lucene 2.4 版本是其历史上的一个重要...
《Lucene 2.4与Nutch学习笔记:在多文本文档中搜索关键词》 Lucene是一个高性能、全文本搜索引擎库,它为开发者提供了在Java应用程序中实现全文搜索功能的基本工具。Nutch则是一个开源的网络爬虫项目,用于抓取...
《庖丁解牛 源码 for Lucene 2.4》是一份针对开源全文搜索引擎Lucene 2.4版本的深度解析资料。这个压缩包包含的文件名为"paoding-for-lucene-2.4",很可能是针对中文处理的Paoding Lucene库的源代码分析或扩展。...
struts2 + spring2.5 + hibernate 3.2 + lucene 2.4 + compass 2.0 包含所有jar包,按readme.txt导入并运行即可 开始不用分了................
lucene2.4手册,是开发搜索引擎的好帮手.
《深入剖析Lucene 2.4.1:核心与示例》 Lucene是一个高性能、全文检索库,它由Apache软件基金会开发并维护。作为Java编写的一个开源项目,Lucene为构建复杂的搜索功能提供了强大的工具集。本次我们将深入探讨Lucene...
【标题】"lunence2.4例题" 指的是有关Lucene 2.4版本的一些示例和练习题目。Lucene是一款强大的开源全文搜索引擎库,它为Java开发者提供了文本检索和分析的工具,使得在应用程序中实现搜索功能变得简单。在Lucene ...
支持net4.0环境下运行,Lucene.net版本为3.0,PanGu版本为2.4
《深入剖析Lucene 2.4.0:核心与扩展》 Lucene是一个开源全文搜索引擎库,由Apache软件基金会开发并维护。在2.4.0版本中,Lucene为开发者提供了一套强大的文本检索和分析工具,使得构建高效、可扩展的搜索应用成为...
might not be compatible with the Snowball module in Lucene 2.4 or greater. For more information about this issue see: https://issues.apache.org/jira/browse/LUCENE-1142 For more information on ...
《深入剖析Lucene:庖丁解牛分词法2.4版本》 在中文信息处理领域,Lucene作为一个强大的全文检索引擎库,扮演着至关重要的角色。然而,由于中文的复杂性,简单的英文分词策略无法满足需求,于是有了针对中文的分词...
**Lucene.NET 2.4.0:在.NET平台上的搜索引擎开发神器** Lucene.NET是Apache Lucene项目的一个分支,专为.NET Framework设计,提供了一套强大的文本搜索库,使得.NET开发者可以方便地构建高性能的全文搜索引擎。这...
《Lucene 2.3.1.jar:洞察搜索引擎的核心技术》 在信息技术的海洋中,搜索引擎扮演着至关重要的角色,而Lucene则是其中的一颗璀璨明珠。作为一个开源全文检索库,Lucene为开发者提供了强大的文本搜索功能。在这里,...
在本文中,我们将深入探讨如何基于Lucene 2.4版本创建简单的全文索引并进行搜索操作。 一、Lucene基本概念 1. 文档(Document):在Lucene中,一个文档代表了要索引的信息源,它可以是网页、电子邮件、PDF文档等。...