说明一下,这一篇文章的用到的lucene,是用2.0版本的,主要在查询的时候2.0版本的lucene与以前的版本有了一些区别.
其实这一些代码都是早几个月写的,自己很懒,所以到今天才写到自己的博客上,高深的文章自己写不了,只能记录下一些简单的记录与点滴,其中的代码算是自娱自乐的,希望高手不要把重构之类的砸下来...
1、在windows系统下的的C盘,建一个名叫s的文件夹,在该文件夹里面随便建三个txt文件,随便起名啦,就叫"1.txt","2.txt"和"3.txt"啦
其中1.txt的内容如下:
中华人民共和国
全国人民
2006年
而"2.txt"和"3.txt"的内容也可以随便写几写,这里懒写,就复制一个和1.txt文件的内容一样吧
2、下载lucene包,放在classpath路径中
建立索引:
-
package
lighter.javaeye.com;
-
-
import
java.io.BufferedReader;
-
import
java.io.File;
-
import
java.io.FileInputStream;
-
import
java.io.IOException;
-
import
java.io.InputStreamReader;
-
import
java.util.Date;
-
-
import
org.apache.lucene.analysis.Analyzer;
-
import
org.apache.lucene.analysis.standard.StandardAnalyzer;
-
import
org.apache.lucene.document.Document;
-
import
org.apache.lucene.document.Field;
-
import
org.apache.lucene.index.IndexWriter;
-
-
-
-
-
public
class
TextFileIndexer{
-
public
static
void
main(String[]args)
throws
Exception{
-
-
FilefileDir=
new
File(
"c:\\s"
);
-
-
-
FileindexDir=
new
File(
"c:\\index"
);
-
AnalyzerluceneAnalyzer=
new
StandardAnalyzer();
-
IndexWriterindexWriter=
new
IndexWriter(indexDir,luceneAnalyzer,
-
true
);
-
File[]textFiles=fileDir.listFiles();
-
long
startTime=
new
Date().getTime();
-
-
-
for
(
int
i=
0
;i<textFiles.length;i++){
-
if
(textFiles[i].isFile()
-
&&textFiles[i].getName().endsWith(
".txt"
)){
-
System.out.println(
"File"
+textFiles[i].getCanonicalPath()
-
+
"正在被索引...."
);
-
Stringtemp=FileReaderAll(textFiles[i].getCanonicalPath(),
-
"GBK"
);
-
System.out.println(temp);
-
Documentdocument=
new
Document();
-
FieldFieldPath=
new
Field(
"path"
,textFiles[i].getPath(),
-
Field.Store.YES,Field.Index.NO);
-
FieldFieldBody=
new
Field(
"body"
,temp,Field.Store.YES,
-
Field.Index.ANALYZED,
-
Field.TermVector.WITH_POSITIONS_OFFSETS);
-
document.add(FieldPath);
-
document.add(FieldBody);
-
indexWriter.addDocument(document);
-
}
-
}
-
-
indexWriter.optimize();
-
indexWriter.close();
-
-
-
long
endTime=
new
Date().getTime();
-
System.out
-
.println(
"这花费了"
-
+(endTime-startTime)
-
+
"毫秒来把文档增加到索引里面去!"
-
+fileDir.getPath());
-
}
-
-
public
static
StringFileReaderAll(StringFileName,Stringcharset)
-
throws
IOException{
-
BufferedReaderreader=
new
BufferedReader(
new
InputStreamReader(
-
new
FileInputStream(FileName),charset));
-
Stringline=
new
String();
-
Stringtemp=
new
String();
-
-
while
((line=reader.readLine())!=
null
){
-
temp+=line;
-
}
-
reader.close();
-
return
temp;
-
}
-
}
package lighter.javaeye.com;
import java.io.BufferedReader;
import java.io.File;
import java.io.FileInputStream;
import java.io.IOException;
import java.io.InputStreamReader;
import java.util.Date;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexWriter;
/**
* author lighter date 2006-8-7
*/
public class TextFileIndexer {
public static void main(String[] args) throws Exception {
/* 指明要索引文件夹的位置,这里是C盘的S文件夹下 */
File fileDir = new File("c:\\s");
/* 这里放索引文件的位置 */
File indexDir = new File("c:\\index");
Analyzer luceneAnalyzer = new StandardAnalyzer();
IndexWriter indexWriter = new IndexWriter(indexDir, luceneAnalyzer,
true);
File[] textFiles = fileDir.listFiles();
long startTime = new Date().getTime();
//增加document到索引去
for (int i = 0; i < textFiles.length; i++) {
if (textFiles[i].isFile()
&& textFiles[i].getName().endsWith(".txt")) {
System.out.println("File " + textFiles[i].getCanonicalPath()
+ "正在被索引....");
String temp = FileReaderAll(textFiles[i].getCanonicalPath(),
"GBK");
System.out.println(temp);
Document document = new Document();
Field FieldPath = new Field("path", textFiles[i].getPath(),
Field.Store.YES, Field.Index.NO);
Field FieldBody = new Field("body", temp, Field.Store.YES,
Field.Index.TOKENIZED,
Field.TermVector.WITH_POSITIONS_OFFSETS);
document.add(FieldPath);
document.add(FieldBody);
indexWriter.addDocument(document);
}
}
//optimize()方法是对索引进行优化
indexWriter.optimize();
indexWriter.close();
//测试一下索引的时间
long endTime = new Date().getTime();
System.out
.println("这花费了"
+ (endTime - startTime)
+ " 毫秒来把文档增加到索引里面去!"
+ fileDir.getPath());
}
public static String FileReaderAll(String FileName, String charset)
throws IOException {
BufferedReader reader = new BufferedReader(new InputStreamReader(
new FileInputStream(FileName), charset));
String line = new String();
String temp = new String();
while ((line = reader.readLine()) != null) {
temp += line;
}
reader.close();
return temp;
}
}
索引的结果:
-
FileC:\s\
1
.txt正在被索引....
-
中华人民共和国全国人民
2006
年
-
FileC:\s\
2
.txt正在被索引....
-
中华人民共和国全国人民
2006
年
-
FileC:\s\
3
.txt正在被索引....
-
中华人民共和国全国人民
2006
年
-
这花费了
297
毫秒来把文档增加到索引里面去!c:\s
File C:\s\1.txt正在被索引....
中华人民共和国全国人民2006年
File C:\s\2.txt正在被索引....
中华人民共和国全国人民2006年
File C:\s\3.txt正在被索引....
中华人民共和国全国人民2006年
这花费了297 毫秒来把文档增加到索引里面去!c:\s
3、建立了索引之后,查询啦....
-
package
lighter.javaeye.com;
-
-
import
java.io.IOException;
-
-
import
org.apache.lucene.analysis.Analyzer;
-
import
org.apache.lucene.analysis.standard.StandardAnalyzer;
-
import
org.apache.lucene.queryParser.ParseException;
-
import
org.apache.lucene.queryParser.QueryParser;
-
import
org.apache.lucene.search.Hits;
-
import
org.apache.lucene.search.IndexSearcher;
-
import
org.apache.lucene.search.Query;
-
-
public
class
TestQuery{
-
public
static
void
main(String[]args)
throws
IOException,ParseException{
-
Hitshits=
null
;
-
StringqueryString=
"中华"
;
-
Queryquery=
null
;
-
IndexSearchersearcher=
new
IndexSearcher(
"c:\\index"
);
-
-
Analyzeranalyzer=
new
StandardAnalyzer();
-
try
{
-
QueryParserqp=
new
QueryParser(
"body"
,analyzer);
-
query=qp.parse(queryString);
-
}
catch
(ParseExceptione){
-
}
-
if
(searcher!=
null
){
-
hits=searcher.search(query);
-
if
(hits.length()>
0
){
-
System.out.println(
"找到:"
+hits.length()+
"个结果!"
);
-
}
-
}
-
}
-
-
}
package lighter.javaeye.com;
import java.io.IOException;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.queryParser.ParseException;
import org.apache.lucene.queryParser.QueryParser;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
public class TestQuery {
public static void main(String[] args) throws IOException, ParseException {
Hits hits = null;
String queryString = "中华";
Query query = null;
IndexSearcher searcher = new IndexSearcher("c:\\index");
Analyzer analyzer = new StandardAnalyzer();
try {
QueryParser qp = new QueryParser("body", analyzer);
query = qp.parse(queryString);
} catch (ParseException e) {
}
if (searcher != null) {
hits = searcher.search(query);
if (hits.length() > 0) {
System.out.println("找到:" + hits.length() + " 个结果!");
}
}
}
}
其运行结果:
引用
找到:3 个结果!
具体的API的用法,这里就不说了,具体的做法参考lucene的官方文档吧...
分享到:
相关推荐
标题"lucene简单例子"指出我们将探讨如何使用Apache Lucene这个开源全文搜索引擎库进行数据存储和搜索。Lucene是Java开发的一个高性能、可扩展的信息检索库,它提供了强大的文本分析和索引功能,使得开发者能够轻松...
在"Lucene简单实例"项目中,我们可能会遇到以下关键组件: 1. **Analyzer**:负责文本分析,定义如何处理输入的文本,如分词规则。 2. **IndexWriter**:用于创建和更新索引,它会管理索引的生命周期。 3. **...
以上就是 Lucene 的一个简单应用实例,它展示了如何使用 Lucene 创建索引和执行查询。实际项目中,你可能需要处理更复杂的文本分析、多字段查询、排序、分页等功能。了解 Lucene 提供的各种组件和类,如 Analyzer、...
这个“Lucene简单例子”旨在帮助初学者理解和应用Lucene,解决网络上一些教程可能存在的实用性问题。 **Lucene的核心组件** 1. **索引(Indexing)**: Lucene首先对文档进行索引,这个过程包括分析文本、创建倒排...
**Lucene简单实例中的问题** 标题中提到的"分页存在BUG"可能指的是在使用Lucene进行多结果分页时可能出现的问题。在处理大量搜索结果时,通常会使用分页来展示,但如果不正确地处理,可能会导致重复或丢失结果。...
标题与描述:“Lucene简单入门程序实例”这一标题与描述明确指出文章将引导读者通过一个实际的示例来了解和掌握Lucene的基本操作。Lucene是一个高性能、全功能的文本搜索引擎库,它允许用户对文档进行索引和搜索。本...
本篇文章将详细探讨Lucene的实例应用,以及如何通过实例来理解和掌握这一技术。 一、Lucene的基本概念 1. 文档(Document):在Lucene中,文档是信息的基本单位,可以理解为数据库中的一条记录,包含多个字段...
本篇将通过一个简单的入门例子,带你了解如何使用Lucene进行搜索。 首先,我们要知道Lucene的核心组件包括文档(Document)、字段(Field)、索引(Index)和查询(Query)。在Lucene中,信息是以文档的形式存储,...
标题“lucene简单介绍及solr搭建使用”涉及了两个主要的开源搜索技术:Lucene和Solr。Lucene是Java开发的一个全文检索库,而Solr则是基于Lucene构建的企业级搜索平台,提供了更高级的功能和管理界面。 **Lucene简介...
标题 "第一个lucene的简单实例" 提到的是关于Apache Lucene的初步应用,这是一个全文搜索引擎库,常用于Java开发中。Lucene提供了高效的文本搜索功能,使得开发者能够快速地在大量数据中查找相关信息。 描述中的 ...
《Lucene简单代码实例解析》 Lucene是一个高性能、全文本搜索库,由Apache软件基金会开发,被广泛应用于各种搜索引擎的构建。它提供了一个简单的API,使得开发者可以方便地在自己的应用程序中集成全文检索功能。...
以下是一个简单的Java代码示例,展示了如何创建和使用Lucene索引器: ```java import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.document.Document; import org.apache....
**Lucene 搜索实例** Apache Lucene 是一个高性能、全文本搜索引擎库,它为开发者提供了在各种应用程序中实现全文检索的工具集。Lucene 并不是一个完整的应用,而是一个 Java 类库,可以被其他 Java 应用程序所使用...
以下是一个简单的示例代码,演示了如何使用Lucene搜索包含关键词"lucene"的文档: ```java public class TxtFileSearcher { public static void main(String[] args) throws Exception{ String queryStr = ...
**基于Java的Lucene全文搜索引擎资源简单实例** Lucene是一个由Apache软件基金会开发的开源全文检索库,它为Java开发者提供了强大的文本搜索功能。Lucene是高性能、可扩展的信息检索库,可以集成到各种Java应用中,...
接下来是查询,Lucene支持多种查询语法,包括简单的关键词查询、短语查询、布尔查询以及更复杂的模糊查询、范围查询等。用户可以通过QueryParser类来构建查询对象,然后使用IndexSearcher进行搜索。 在实际应用中,...
《Lucene 4.7 开发简单实例详解》 Lucene 是一款强大的全文搜索引擎库,广泛应用于各种信息检索系统中。在本实例中,我们将深入探讨Lucene 4.7版本,涵盖索引的创建、修改、删除,以及查询时的排序、分页、优化和...