- 浏览: 284677 次
- 性别:
- 来自: 湖南岳阳
最新评论
-
ternus:
兄弟,我用boboBrowse 也遇到了排序的问题,上线了讨论 ...
lucene 分组 bobo-Browse 排序的问题 -
luli0822:
Awesome bookmarks of those guru ...
流行的jQuery信息提示插件(jQuery Tooltip Plugin) -
shenbai:
如果你要在前台运行,你应该run得是ElasticSearch ...
ElasticSearch 源码分析 环境入门 -
cl1154781231:
<s:peroperty value="#at ...
关于Struts2中标签的一些心得 -
RonQi:
转载的吗?http://blog.csdn.net/stray ...
利用bobo-browse 实现lucene的分组统计功能
关于MultiPhraseQuery(多短语查询)。
MultiPhraseQuery可以通过多个短语的拼接来实现复杂查询。
举个例子:现在使用StandardAnalyzer分析器建立索引,索引中是将单个的汉字作为一个一个地词条。使用这个分析器,因为没有像“今天”这样两个汉字组成词条,所以要想单独按照索引中的词条进行检索是不可能查询出任何结果的。
当然,有很多方案可以选择,其中MultiPhraseQuery就能够实现:
它可以指定一个前缀,比如“今”,而后缀是一个Term[]数组,可以是{new Term("年"),new Term("天")},则查询的时候只要含有“今年”和“今天”短语的Document都会查询出来。
而且,也可以指定一个后缀,多个前缀,还可以设定一个slop,指定前缀和后缀之间可以允许有多少个间隔。
下面分别测试一下使用MultiPhraseQuery的效果。
我总结了四种情形:
一个前缀,多个后缀
主函数如下所示:
package org.apache.lucene.shirdrn.main;
import java.io.IOException;
import java.util.Date;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.CorruptIndexException;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.Term;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.MultiPhraseQuery;
import org.apache.lucene.store.LockObtainFailedException;
public class MultiPhraseQuerySearcher {
private String path = "E:\\Lucene\\index";
private MultiPhraseQuery multiPhraseQuery;
public MultiPhraseQuerySearcher(){
multiPhraseQuery =new MultiPhraseQuery();
}
public void createIndex(){ // 建立索引
String indexPath = "E:\\Lucene\\index";
IndexWriter writer;
try {
//writer = new IndexWriter(indexPath,new ThesaurusAnalyzer(),true);
writer = new IndexWriter(indexPath,new StandardAnalyzer(),true);
Field fieldA = new Field("contents","今天是我们地球的生日。",Field.Store.YES,Field.Index.TOKENIZED);
Document docA = new Document();
docA.add(fieldA);
Field fieldB1 = new Field("contents","今晚的辩题很道地:谁知道宇宙空间的奥秘,在我们这些人当中?",Field.Store.YES,Field.Index.TOKENIZED);
Field fieldB2 = new Field("contents","我认为电影《今朝》是一部不错的影片,尤其是在今天,天涯海角到哪里找啊。",Field.Store.YES,Field.Index.TOKENIZED);
Field fieldB3 = new Field("contents","长今到底是啥意思呢?",Field.Store.YES,Field.Index.TOKENIZED);
Document docB = new Document();
docB.add(fieldB1);
docB.add(fieldB2);
docB.add(fieldB3);
Field fieldC1 = new Field("contents","宇宙学家对地球的重要性,今非昔比。",Field.Store.YES,Field.Index.TOKENIZED);
Field fieldC2 = new Field("contents","衣带渐宽终不悔,为伊消得人憔悴。",Field.Store.YES,Field.Index.TOKENIZED);
Document docC = new Document();
docC.add(fieldC1);
writer.addDocument(docA);
writer.addDocument(docB);
writer.addDocument(docC);
writer.close();
} catch (CorruptIndexException e) {
e.printStackTrace();
} catch (LockObtainFailedException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
}
public void useMultiPrefixExample
(){ // 含有多个前缀的情形
Term termA = new Term("contents","道");
Term termB = new Term("contents","对");
multiPhraseQuery.add(new Term[]{termA,termB});
Term termC = new Term("contents","地");
multiPhraseQuery.add(termC);
}
public void useMultiSuffixExample
(){ // 含有多个后缀的情形
Term termA = new Term("contents","今");
multiPhraseQuery.add(termA);
Term termB = new Term("contents","天");
Term termC = new Term("contents","晚");
Term termD = new Term("contents","非");
multiPhraseQuery.add(new Term[]{termB,termC,termD});
}
public void useMultiPrefixAndMultiSuffixExample
(){ // 含有多个前缀、多个后缀的情形
Term termA = new Term("contents","生");
Term termB = new Term("contents","今");
multiPhraseQuery.add(new Term[]{termA,termB});
Term termC = new Term("contents","非");
Term termD = new Term("contents","日");
Term termE = new Term("contents","朝");
multiPhraseQuery.add(new Term[]{termC,termD,termE});
}
public void useSetSlopExample
(){ // 设定slop的情形
Term termA = new Term("contents","我");
multiPhraseQuery.add(termA);
Term termB = new Term("contents","影");
Term termC = new Term("contents","球");
multiPhraseQuery.add(new Term[]{termB,termC});
multiPhraseQuery.setSlop(5);
}
public static void main(String[] args) {
MultiPhraseQuerySearcher mpqs = new MultiPhraseQuerySearcher();
mpqs.createIndex();
mpqs.useMultiSuffixExample();
// 调用含有多个后缀的实现
try {
Date startTime = new Date();
IndexSearcher searcher = new IndexSearcher(mpqs.path);
Hits hits = searcher.search(mpqs.multiPhraseQuery);
System.out.println("********************************************************************");
for(int i=0;i<hits.length();i++){
System.out.println("Document的内部编号为 : "+hits.id(i));
System.out.println("Document内容为 : "+hits.doc(i));
System.out.println("Document的得分为 : "+hits.score(i));
}
System.out.println("********************************************************************");
System.out.println("共检索出符合条件的Document "+hits.length()+" 个。");
Date finishTime = new Date();
long timeOfSearch = finishTime.getTime() - startTime.getTime();
System.out.println("本次搜索所用的时间为 "+timeOfSearch+" ms");
} catch (CorruptIndexException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
}
}
检索的结果如下所示:
********************************************************************
Document的内部编号为 : 0
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:今天
是我们地球的生日。>>
Document的得分为 : 1.0
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:宇宙学家对地球的重要性,今非
昔比。>>
Document的得分为 : 0.79999995
Document的内部编号为 : 1
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:今晚
的辩题很道地:谁知道宇宙空间的奥秘,在我们这些人当中?> stored/uncompressed,indexed,tokenized<contents:我认为电影《今朝》是一部不错的影片,尤其是在今天
,天涯海角到哪里找啊。> stored/uncompressed,indexed,tokenized<contents:长今到底是啥意思呢?>>
Document的得分为 : 0.5656854
********************************************************************
共检索出符合条件的Document 3 个。
本次搜索所用的时间为 141 ms
由上面的:
public void useMultiSuffixExample(){ // 含有多个后缀的情形
Term termA = new Term("contents","今");
multiPhraseQuery.add(termA);
Term termB = new Term("contents","天");
Term termC = new Term("contents","晚");
Term termD = new Term("contents","非");
multiPhraseQuery.add(new Term[]{termB,termC,termD});
}
可知,检索的是以“今”为唯一的前缀,后缀可以是“天”、“晚”、“非”,由检索结果可以看出:还有“今天”、“今晚”、“今非”的都被检索出来了。
多个前缀,一个后缀
调用useMultiPrefixExample()方法测试。
public void MultiPrefixExample(){
Term termA = new Term("contents","道");
Term termB = new Term("contents","对");
multiPhraseQuery.add(new Term[]{termA,termB});
Term termC = new Term("contents","地");
multiPhraseQuery.add(termC);
}
修改主函数中mpqs.useMultiSuffixExample();为mpqs.useMultiPrefixExample();,测试结果如下所示:
********************************************************************
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:宇宙学家对地
球的重要性,今非昔比。>>
Document的得分为 : 0.88081205
Document的内部编号为 : 1
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:今晚的辩题很道地
:谁知道宇宙空间的奥秘,在我们这些人当中?> stored/uncompressed,indexed,tokenized<contents:我认为电影《今朝》是一部不错的影片,尤其是在今天,天涯海角到哪里找啊。> stored/uncompressed,indexed,tokenized<contents:长今到底是啥意思呢?>>
Document的得分为 : 0.44040602
********************************************************************
共检索出符合条件的Document 2 个。
本次搜索所用的时间为 94 ms
我们测试的目的是检索出含有“道地”和“对地”的Document,检索结果和我们的预期想法是一致的。
多个前缀,多个后缀
其实就是对前缀Term[]数组与后缀Term[]数组进行匹配,即:对前缀Term[]数组中的每个Term都与后缀Term[]数组中每个Term进行组合匹配,进行查询。
public void useMultiPrefixAndMultiSuffixExample(){
Term termA = new Term("contents","生");
Term termB = new Term("contents","今");
multiPhraseQuery.add(new Term[]{termA,termB});
Term termC = new Term("contents","非");
Term termD = new Term("contents","日");
Term termE = new Term("contents","朝");
multiPhraseQuery.add(new Term[]{termC,termD,termE});
}
这里,一种有6种组合:“生非”、“生日”、“生朝”、“今非”、“今日”、“今朝”。从索引文件中进行匹配,如果含有上面某个组合的短语,就为实际检索的结果。
修改主函数中mpqs.useMultiSuffixExample();为mpqs.useMultiPrefixAndMultiSuffixExample();,测试结果如下所示:
********************************************************************
Document的内部编号为 : 0
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:今天是我们地球的生日
。>>
Document的得分为 : 1.0
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:宇宙学家对地球的重要性,今非
昔比。>>
Document的得分为 : 0.8
Document的内部编号为 : 1
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:今晚的辩题很道地:谁知道宇宙空间的奥秘,在我们这些人当中?> stored/uncompressed,indexed,tokenized<contents:我认为电影《今朝
》是一部不错的影片,尤其是在今天,天涯海角到哪里找啊。> stored/uncompressed,indexed,tokenized<contents:长今到底是啥意思呢?>>
Document的得分为 : 0.4
********************************************************************
共检索出符合条件的Document 3 个。
本次搜索所用的时间为 110 ms
设定slop间隔范围
默认的slop值为0,即表示多个词条直接连接构成短语进行检索。
设定slop后,只要间隔小于等于(<=)slop值都呗认为是满足条件的检索。
调用下面的方法:
public void useSetSlopExample(){
Term termA = new Term("contents","我");
multiPhraseQuery.add(termA);
Term termB = new Term("contents","影");
Term termC = new Term("contents","球");
multiPhraseQuery.add(new Term[]{termB,termC});
multiPhraseQuery.setSlop(5);
}
也就是,满足下面组合的都为检索结果:
我球、我■球、我■■球、我■■■球、我■■■■球、我■■■■■球
我影、我■影、我■■影、我■■■影、我■■■■影、我■■■■■影
其中,一个“■”表示与检索无关的一个词条,即间隔。
进行测试,结果如下所示:
********************************************************************
Document的内部编号为 : 0
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:今天是我
们地
球
的生日。>>
Document的得分为 : 0.6144207
Document的内部编号为 : 1
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:今晚的辩题很道地:谁知道宇宙空间的奥秘,在我们这些人当中?> stored/uncompressed,indexed,tokenized<contents:我
认为电
影
《今朝》是一部不错的影片,尤其是在今天,天涯海角到哪里找啊。> stored/uncompressed,indexed,tokenized<contents:长今到底是啥意思呢?>>
Document的得分为 : 0.21284157
********************************************************************
共检索出符合条件的Document 2 个。
本次搜索所用的时间为 109 ms
总结
从上面的几种情况可以看出MultiPhraseQuery的用法很灵活,而且很方便,要根据具体是应用进行选择。
发表评论
-
全文检索的基本原理
2010-02-25 10:22 876一、总论 根据http://lucene.apache.or ... -
lucene 分组 bobo-Browse 排序的问题
2010-02-01 16:18 2224今天碰到了一个问题,用bobo分组后对价格升序 居然100 ... -
开源搜索引擎
2010-02-01 14:31 1695开放源代码搜索引擎为 ... -
lucene中的filter器群组及其缓存大盘点
2010-01-20 23:18 1202lucene中的filter其实并不起眼,大家对其对性能的影响 ... -
利用bobo-browse 实现lucene的分组统计功能
2010-01-18 17:50 2940bobo-browse 是一用java写的lucene扩展组件 ... -
lucene Field部分参数设置含义
2009-11-07 17:51 1249<script type="text/ja ... -
刚下载,开始学习lucene时看的文章
2009-09-04 18:43 1432Lucene 2.0.0下载安装及测试 【下载】 下载链接 ... -
Lucene-2.3.1 阅读学习(42)
2009-09-04 18:42 945关于Hits类。 这个Hits类 ... -
Lucene 2.3.1 阅读学习(41)
2009-09-04 18:42 1412当执行Hits htis = search(query);这一 ... -
Lucene-2.3.1 源代码阅读学习(40)
2009-09-04 18:41 989关于Lucene检索结果的排序问题。 已经知道,Lucene ... -
Lucene-2.3.1 源代码阅读学习(39)
2009-09-04 18:41 1155关于Lucene得分的计算。 在IndexSearcher类 ... -
Lucene-2.3.1 源代码阅读学习(39)
2009-09-04 18:38 565关于Lucene得分的计算。 在IndexSearcher类 ... -
Lucene-2.3.1 源代码阅读学习(38)
2009-09-04 18:38 922关于QueryParser。 QueryParser是用来解 ... -
Lucene-2.3.1 源代码阅读学习(37)
2009-09-04 18:37 631关于MultiTermQuery查询。 这里研究继承自Mul ... -
Lucene-2.3.1 源代码阅读学习(36)
2009-09-04 18:37 808关于MultiTermQuery查询。 ... -
Lucene-2.3.1 源代码阅读学习(34)
2009-09-04 18:36 640关于PhraseQuery。 PhraseQuery查询是将 ... -
Lucene-2.3.1 源代码阅读学习(33)
2009-09-04 18:35 870关于范围查询RangeQuery。 ... -
Lucene-2.3.1 源代码阅读学习(32)
2009-09-04 18:35 1156关于SpanQuery(跨度搜索),它是Query的子类,但是 ... -
Lucene-2.3.1 源代码阅读学习(31)
2009-09-04 18:34 873关于前缀查询PrefixQuery(前缀查询)。 准备工作就 ... -
Lucene-2.3.1 源代码阅读学习(30)
2009-09-04 18:34 1064关于Query的学习。 主要使用TermQuery和Bool ...
相关推荐
《Lucene-2.3.1 源代码阅读学习》 Lucene是Apache软件基金会的一个开放源码项目,它是一个高性能、全文本搜索库,为开发者提供了在Java应用程序中实现全文检索功能的基础架构。本篇文章将深入探讨Lucene 2.3.1版本...
总而言之,Lucene 2.3.1作为一款经典的搜索引擎框架,它的源代码不仅提供了学习信息检索理论的机会,也是实践和掌握Java编程、数据结构和算法的宝贵资源。通过对压缩包中的文件进行分析,开发者可以深入了解Lucene的...
通过深入学习和理解这些源代码文件,开发者可以更好地掌握 Lucene.Net 的核心功能,如索引构建、查询解析、搜索排序、分词和性能优化。这有助于在实际项目中实现高效、精确的全文搜索引擎。同时,研究源码也能提升对...
4.其中src文件夹内为全部源代码,WebRoot为web应用部署文件 5.本系统的最小有效组件集合为:(约定:以下“*.*”均表示目录下的所有单独文件,不包括文件夹,而“/s”则表示所有的文件夹及其内部内容) src\*.* /s ...
### Lucene+Solor知识点概述 #### 一、搜索引擎基础理论 **1.1 Google神话** - **起源与发展:** - Google成立于1998年,由Larry Page和Sergey Brin创立。 - 初期以PageRank算法为核心,有效解决了当时互联网...
- **开源协议**:使用Apache License 2.0协议,源代码完全开源,没有商业限制。 - **技术栈成熟**:使用当前最主流的J2EE开发框架和技术,易于学习和维护。 - **数据库支持广泛**:支持多种数据库,如MySQL、Oracle...
- **1.4.1 目录结构说明**:Solr项目的目录结构清晰,主要包括src/main/java下的源代码、src/main/resources下的资源文件等。 - **1.4.2 Solrhome说明**:Solrhome是Solr实例的工作目录,包含了索引数据、配置文件等...
- **1.4.1 目录结构说明**:Solr的核心源码主要由几个关键部分组成,如`src/main/java`包含Java源代码,`src/main/resources`存放配置文件等。 - **1.4.2 Solrhome说明**:Solrhome是Solr运行时使用的根目录,包含了...
CAS (Central Authentication Service) 是一种开放源代码的单点登录协议和服务实现,主要用于Web应用的安全身份验证。CAS支持跨域的身份验证管理,允许用户通过一个中心服务进行一次登录即可访问多个应用系统。 **...
2.3.1. 保存 ACL 数据确保持久性 2.3.2. 使用声明(Assert)来编写条件性的 ACL 规则 3. Zend_Auth 3.1. 简介 3.1.1. 适配器 3.1.2. 结果 3.1.3. 身份的持久(Persistence) 3.1.3.1. 在PHP Session 中的缺省...