package demo.first;
import java.io.IOException;
import java.util.Date;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.CorruptIndexException;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.queryParser.QueryParser;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.Searcher;
import org.apache.lucene.store.LockObtainFailedException;
public class TestQueryParser {
public static void main(String[] args) throws CorruptIndexException, IOException {
String path = "D://workspace//fwk//lucenedemo//firstLuceneIndex";
TestQueryParser tqp = new TestQueryParser();
tqp.createIndex(path);
Searcher search = tqp.getSearcher(path);
System.out.println("#_2");
tqp.testTime(search, tqp.getQueryParser2());
System.out.println("#_1");
tqp.testTime(search, tqp.getQueryParser1());
System.out.println("#_3");
tqp.testTime(search, tqp.getQueryParser3());
System.out.println("#_4");
tqp.testTime(search, tqp.getQueryParser4());
System.out.println("#_5");
tqp.testTime(search, tqp.getQueryParser5());
System.out.println("#_6");
tqp.testTime(search, tqp.getQueryParser6());
System.out.println("#_7");
tqp.testTime(search, tqp.getQueryParser7());
}
public void testTime(Searcher search,Query query) throws IOException{
Date start = new Date();
Hits hits = search.search(query);
for (int i = 0; i < hits.length(); i++) {
System.out.println(hits.id(i));
System.out.println(hits.doc(i));
System.out.println(hits.score(i));
}
System.out.println("本次搜索用时:" + ((new Date()).getTime() - start.getTime()) + "毫秒");
}
public Searcher getSearcher(String path) throws CorruptIndexException, IOException{
return new IndexSearcher(path);
}
public Query getQueryParser1(){
//默认搜索字段
QueryParser queryParser = new QueryParser("content", new StandardAnalyzer());
try {
return queryParser.parse("搜索 - 擎");
} catch (Exception e) {
e.printStackTrace();
}
return null;
}
public Query getQueryParser2(){
QueryParser queryParser = new QueryParser("content", new StandardAnalyzer());
try {
return queryParser.parse("欢迎");
} catch (Exception e) {
e.printStackTrace();
}
return null;
}
public Query getQueryParser3(){
QueryParser queryParser = new QueryParser("content", new StandardAnalyzer());
try {
return queryParser.parse("搜索 and 擎");
} catch (Exception e) {
e.printStackTrace();
}
return null;
}
public Query getQueryParser4(){
QueryParser queryParser = new QueryParser("content", new StandardAnalyzer());
try {
//content字段搜索 索引 title字段搜寻 你好
return queryParser.parse("索引 title:你好");
} catch (Exception e) {
e.printStackTrace();
}
return null;
}
public Query getQueryParser5(){
QueryParser queryParser = new QueryParser("content", new StandardAnalyzer());
//允许使用正则表达式方式
queryParser.setAllowLeadingWildcard(true);
try {
return queryParser.parse("*索*");
} catch (Exception e) {
e.printStackTrace();
}
return null;
}
/**
* 采用标准分词器StandardAnalyzer会在创建索引的时候把存入的英文全部换成小写放在索引中 查询的时候也会将查询的关键词转为小写进行查询
* @return
*/
public Query getQueryParser6(){
QueryParser queryParser = new QueryParser("testCapital", new StandardAnalyzer());
try {
return queryParser.parse("hellOwangzi");
} catch (Exception e) {
e.printStackTrace();
}
return null;
}
/**
* 采用标准分词器StandardAnalyzer会在创建索引的时候把存入的and or等关键字过滤掉 所以在查询的时候怎么也查不到
* @return
*/
public Query getQueryParser7(){
QueryParser queryParser = new QueryParser("testAndOr", new StandardAnalyzer());
try {
//return queryParser.parse("and");
return queryParser.parse("test");
} catch (Exception e) {
e.printStackTrace();
}
return null;
}
/**
* 创建索引
* @param path
*/
public void createIndex(String path){
try {
IndexWriter writer = new IndexWriter(path,new StandardAnalyzer(),true);
Document docA = new Document();
//相当于数据库中列的概念,因此第一个参数是列名,第二个参数是列的值,最后两个参数是enum类型的(JDK1.5),对创建的索引的设置
//Field.Store 是否覆盖原来的索引文件,而不是重新建一个
Field fieldA = new Field("content","搜索引擎",Field.Store.YES,Field.Index.TOKENIZED);
//我们把列(fieldA)加到某一行(docA)中
docA.add(fieldA);
docA.add(new Field("title","你好中国",Field.Store.YES,Field.Index.TOKENIZED));
docA.add(new Field("content","欢迎你llying",Field.Store.YES,Field.Index.TOKENIZED));
docA.add(new Field("lastModifyTime","2008-9-17",Field.Store.YES,Field.Index.TOKENIZED));
docA.add(new Field("testCapital","HelloWangzi",Field.Store.YES,Field.Index.TOKENIZED));
docA.add(new Field("testAndOr","test and",Field.Store.YES,Field.Index.TOKENIZED));
Document docB = new Document();
//相当于数据库中列的概念,因此第一个参数是列名,第二个参数是列的值,最后两个参数是enum类型的(JDK1.5),对创建的索引的设置
Field fieldB = new Field("content","创建索引",Field.Store.YES,Field.Index.TOKENIZED);
//我们把列(fieldA)加到某一行(docA)中
docB.add(fieldB);
docB.add(new Field("title","你好世界",Field.Store.YES,Field.Index.TOKENIZED));
docB.add(new Field("content","欢迎加入jee高级开发群46176507",Field.Store.YES,Field.Index.TOKENIZED));
docB.add(new Field("lastModifyTime","2008-9-6",Field.Store.YES,Field.Index.TOKENIZED));
docB.add(new Field("testCapital","hellowangZi",Field.Store.YES,Field.Index.TOKENIZED));
docB.add(new Field("testAndOr","test or",Field.Store.YES,Field.Index.TOKENIZED));
writer.addDocument(docA);
writer.addDocument(docB);
//如果对海量数据进行创建索引的时候,需要对索引进行优化,以便提高速度
writer.optimize();
//跟数据库类似,打开一个连接,使用完后,要关闭它
writer.close();
} catch (CorruptIndexException e) {
e.printStackTrace();
} catch (LockObtainFailedException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
}
}
分享到:
相关推荐
本篇文章将深入探讨Lucene-5.2.1的关键知识点,通过实例解析其工作原理和使用方法。 1. **Lucene核心组件** - **Analyzer**:文本分析器是Lucene处理文本的第一步,它负责将输入的字符串分解为一系列的词项...
- **示例代码**:解压后的"lucene-5.5.3"目录中可能包含示例代码和测试用例,有助于理解和实践。 - **社区支持**:参与开源社区,如Apache邮件列表、Stack Overflow等,可以获得问题解答和技术交流。 通过深入...
Linux Lucene 8.6.1 是一个针对文本搜索和索引的开源库,它在Linux平台上被广泛使用。Lucene是Apache软件基金会的一个项目,为开发者提供了强大的全文搜索引擎功能,使得开发人员能够轻松地在应用程序中集成高级的...
在标题中提到的"lucene-4.10.1.jar"是Lucene 4.10.1版本的Java档案(JAR)文件,包含了所有必要的类和方法,用于构建高效的全文搜索引擎应用。 **核心概念** 1. **索引**: Lucene首先对文档进行索引,这个过程将...
虽然示例代码没有展示搜索器的部分,但在实际应用中,通常会有一个类来处理用户的查询,调用 `IndexSearcher` 对象来执行搜索,并使用 `Hits` 或 `TopDocs` 结果来获取匹配的文档。 除了 Indexer 和 Searcher,一个...
Apache Lucene拥有活跃的开发社区,提供详尽的文档和示例代码,使得学习和使用Lucene变得更加容易。3.0.3版本的文档更新了对新特性的解释和用法说明。 总的来说,Apache Lucene 3.0.3版在全文检索、搜索引擎领域...
以上就是关于"Lucene4.7-Web例子"的详细解析,通过这个示例,开发者可以了解到如何在实际的Web环境中结合SpringMVC和MyBatis3使用Lucene4.7构建高效搜索引擎。实践中,可以参考提供的"gusao.sql"数据库脚本,"请读我...
理解这些库的功能和使用方法,是深入掌握《Lucene in Action》(第二版)的关键,也是提升应用程序搜索性能的重要途径。在实践中,开发者可以根据具体需求选择引入对应的库,并结合书中的示例和最佳实践,实现自己的...
Lucene是一个高性能、全文检索库,由Apache软件基金会开发并维护,是Java编程语言中广泛使用的搜索引擎库。它提供了一个简单但功能强大的API,用于索引和搜索文本数据,使得开发者可以轻松地在应用程序中实现复杂的...
### Lucene 4.3.0的安装与使用详解 #### 一、Lucene简介 Lucene是一款高性能、全文检索的开源库,由Java编写,适用于各种应用开发环境。它提供了一套完整的文本搜索功能,包括索引创建、文档存储、查询解析、排序...
"luceneDemo1"可能是一个包含Lucene应用示例的Java项目,包含了必要的类和方法,展示了如何使用Lucene进行全文搜索。而"lucene"可能是一个索引目录,存储了已经被Lucene处理过的数据,用于搜索操作。 **总结** ...
"lucene-demos-1.2.jar"则是Lucene的示例代码库,它提供了一系列的DEMO程序,帮助开发者更好地理解Lucene的工作原理和用法。这些示例涵盖了从基本的索引创建到复杂的查询操作,包括: 1. **索引创建**:DEMO展示了...
4. **查询解析**:使用QueryParser从用户输入的字符串生成Query对象,支持复杂的查询语法。 总结,Lucene 2.1.0是一个功能丰富的全文检索库,通过理解和掌握其源码结构和核心概念,开发者可以灵活地构建和优化自己...
在`lucene-trial-master`项目中,我们可以找到一个示例,展示了如何创建、查询和管理Lucene索引。通过这个项目,开发者可以了解Lucene的基本用法,同时也可以作为测试和定制的基础,对其进行修改以适应自己的需求。 ...
### Lucene 教程详解 #### 一、搜索引擎的基本组成部分 搜索引擎主要由四个核心部分构成:**搜索器**、**索引器**、**检索器**以及**用户接口**。...掌握Lucene的使用方法对于开发者来说是非常有价值的技能之一。
在"sample-lucene-txt-blob"这个文件中,我们可以推测它包含了Lucene的一些示例,可能包括如何创建索引、执行查询,以及处理文本和二进制数据(Blob)的方法。 首先,让我们深入了解Lucene的索引过程。在Lucene中,...
这个JAR文件包含了Lucene的一些示例程序和演示,帮助开发者了解如何使用Lucene进行实际操作。这些示例涵盖了从基本的索引创建、查询到更复杂的功能,如多字段搜索、分面搜索等。通过运行这些示例,开发者可以快速...
《深入理解Lucene 2.0与Heritrix:源码剖析》是一本关于搜索引擎开发的经典著作,书中详细讲解了如何使用Lucene 2.0和Heritrix这两个开源工具进行信息检索。在这个名为"Lucene 2.0+Heriterx书源代码-ch7lib"的压缩包...
这个示例代码将向我们展示如何使用Lucene来创建一个索引,并执行一个包含"java"关键字的查询。 首先,我们需要导入必要的Lucene库,包括核心类库和其他可能需要的模块,例如分析器(Analyzer)和文档(Document)...