- 浏览: 285631 次
- 性别:
- 来自: 湖南岳阳
-
最新评论
-
ternus:
兄弟,我用boboBrowse 也遇到了排序的问题,上线了讨论 ...
lucene 分组 bobo-Browse 排序的问题 -
luli0822:
Awesome bookmarks of those guru ...
流行的jQuery信息提示插件(jQuery Tooltip Plugin) -
shenbai:
如果你要在前台运行,你应该run得是ElasticSearch ...
ElasticSearch 源码分析 环境入门 -
cl1154781231:
<s:peroperty value="#at ...
关于Struts2中标签的一些心得 -
RonQi:
转载的吗?http://blog.csdn.net/stray ...
利用bobo-browse 实现lucene的分组统计功能
关于MultiTermQuery查询。
这里研究FuzzyQuery查询。
MultiTermQuery是一个抽象类,继承自它的一种有3个,分别为:FuzzyQuery、WildcardQuery、RegexQuery,其中RegexQuery使用了第三方提供的服务,可以使用正则表达式,如果你对正则表达式很熟悉,可以尝试着使用RegexQuery查询。
FuzzyQuery查询,即模糊查询。
在FuzzyQuery类定义中定义了两个成员变量:
private float minimumSimilarity;
private int prefixLength;
minimumSimilarity是最小相似度,取值范围为0.0~1.0,包含0.0但不包含1.0,默认值为0.5。
prefixLength是前缀长度,默认为0。
其实,在Fuzzy数学中,模糊度被定义为0.5是最模糊的程度,这里说的模糊度是德莱卡模糊度,D(F)=0表示不模糊,即为普通集合;D(F)=05表示最模糊的程度。
使用FuzzyQuery要从的构造方法开始,该类给出3种构造方式:
第一种:
public FuzzyQuery(Term term, float minimumSimilarity, int prefixLength) throws IllegalArgumentException {
super(term);
if (minimumSimilarity >= 1.0f)
throw new IllegalArgumentException("minimumSimilarity >= 1");
else if (minimumSimilarity < 0.0f)
throw new IllegalArgumentException("minimumSimilarity < 0");
if (prefixLength < 0)
throw new IllegalArgumentException("prefixLength < 0");
this.minimumSimilarity = minimumSimilarity;
this.prefixLength = prefixLength;
}
第二种:
public FuzzyQuery(Term term, float minimumSimilarity) throws IllegalArgumentException {
this(term, minimumSimilarity, defaultPrefixLength);
}
第三种:
public FuzzyQuery(Term term) {
this(term, defaultMinSimilarity, defaultPrefixLength);
}
可见,后两种都是使用默认的定义,即minimumSimilarity或者prefixLength使用默认值,最后还是通过第一个构造方法来构造一个FuzzyQuery的实例。
1、使用public FuzzyQuery(Term term)构造查询
实际是这样构造的:FuzzyQuery(term, 0.5f, 0);进行构造。
使用静态定义的具有默认值的两个成员:
minimumSimilarity = defaultMinSimilarity = 0.5f;
prefixLength = defaultPrefixLength = 0;
其实,minimumSimilarity = defaultMinSimilarity = 0.5f并不同于Fuzzy数学中定义的模糊度,minimumSimilarity 表示的应该是一种匹配的严格程度,minimumSimilarity越大表示查询匹配时越严格,通过测试可以看出,如下所示:
package org.apache.lucene.shirdrn.main;
import java.io.IOException;
import java.util.Date;
import net.teamhot.lucene.ThesaurusAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.CorruptIndexException;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.Term;
import org.apache.lucene.search.FuzzyQuery;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.store.LockObtainFailedException;
public class FuzzyQuerySearcher {
private String path = "E:\\Lucene\\index";
private FuzzyQuery fuzzyQuery;
public void createIndex(){
IndexWriter writer;
try {
writer = new IndexWriter(path,new ThesaurusAnalyzer(),true); // 使用ThesaurusAnalyzer 中文分析器
//writer = new IndexWriter(path,new StandardAnalyzer(),true);
Field fieldA = new Field("contents","文件夹",Field.Store.YES,Field.Index.TOKENIZED);
Document docA = new Document();
docA.add(fieldA);
Field fieldB = new Field("contents","文件名",Field.Store.YES,Field.Index.TOKENIZED);
Document docB = new Document();
docB.add(fieldB);
Field fieldC = new Field("contents","文件精神",Field.Store.YES,Field.Index.TOKENIZED);
Document docC = new Document();
docC.add(fieldC);
Field fieldD = new Field("contents","文人",Field.Store.YES,Field.Index.TOKENIZED);
Document docD = new Document();
docD.add(fieldD);
Field fieldE = new Field("contents","整饬",Field.Store.YES,Field.Index.TOKENIZED);
Document docE = new Document();
docE.add(fieldE);
writer.addDocument(docA);
writer.addDocument(docB);
writer.addDocument(docC);
writer.addDocument(docD);
writer.addDocument(docE);
/*Field fieldA = new Field("contents","come",Field.Store.YES,Field.Index.TOKENIZED);
Document docA = new Document();
docA.add(fieldA);
Field fieldB = new Field("contents","cope",Field.Store.YES,Field.Index.TOKENIZED);
Document docB = new Document();
docB.add(fieldB);
Field fieldC = new Field("contents","compleat",Field.Store.YES,Field.Index.TOKENIZED);
Document docC = new Document();
docC.add(fieldC);
Field fieldD = new Field("contents","complete",Field.Store.YES,Field.Index.TOKENIZED);
Document docD = new Document();
docD.add(fieldD);
Field fieldE = new Field("contents","compile",Field.Store.YES,Field.Index.TOKENIZED);
Document docE = new Document();
docE.add(fieldE);
Field fieldF = new Field("contents","compiler",Field.Store.YES,Field.Index.TOKENIZED);
Document docF = new Document();
docF.add(fieldF);
writer.addDocument(docA);
writer.addDocument(docB);
writer.addDocument(docC);
writer.addDocument(docD);
writer.addDocument(docE);
writer.addDocument(docF);*/
writer.close();
} catch (CorruptIndexException e) {
e.printStackTrace();
} catch (LockObtainFailedException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
}
public static void main(String[] args) {
FuzzyQuerySearcher fqs = new FuzzyQuerySearcher();
fqs.createIndex();
Term term = new Term("contents","文件夹");
fqs.fuzzyQuery = new FuzzyQuery(term);
try {
Date startTime = new Date();
IndexSearcher searcher = new IndexSearcher(fqs.path);
Hits hits = searcher.search(fqs.fuzzyQuery);
System.out.println("********************************************************************");
for(int i=0;i<hits.length();i++){
System.out.println("Document的内部编号为 : "+hits.id(i));
System.out.println("Document内容为 : "+hits.doc(i));
System.out.println("Document的得分为 : "+hits.score(i));
}
System.out.println("********************************************************************");
System.out.println("共检索出符合条件的Document "+hits.length()+" 个。");
Date finishTime = new Date();
long timeOfSearch = finishTime.getTime() - startTime.getTime();
System.out.println("本次搜索所用的时间为 "+timeOfSearch+" ms");
} catch (CorruptIndexException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
}
}
注意:上面对中文分词使用了ThesaurusAnalyzer中文分析器,其中构造的那些Field都是词库中一个词条。
检索结果如下所示:
********************************************************************
Document的内部编号为 : 0
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件夹>>
Document的得分为 : 1.0
Document的内部编号为 : 1
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件名>>
Document的得分为 : 0.33333322
********************************************************************
共检索出符合条件的Document 2 个。
本次搜索所用的时间为 250 ms
在检索的过程中,进行模糊匹配遵循的原则就是词条长度相等,而且相似,这是在中文检索中,我们看下在英文中检索的结果会是怎样。
首先,在建立索引的方法中,打开建立索引函数中的注释部分,将中文分词部分注释掉;并且,使用StandardAnalyzer分析器分词,修改:
Term term = new Term("contents","compiler ");
执行主函数,检索结果如下所示:
********************************************************************
Document的内部编号为 : 5
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compiler
>>
Document的得分为 : 1.0
Document的内部编号为 : 4
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compile
>>
Document的得分为 : 0.71428573
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compleat
>>
Document的得分为 : 0.25
Document的内部编号为 : 3
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:complete
>>
Document的得分为 : 0.25
********************************************************************
共检索出符合条件的Document 4 个。
本次搜索所用的时间为 125 ms
对于构造的6个Document中,只有两个不能达到最小相似度0.5的要求。
可见,对于中文和英文来说,都能够体现出类似Fuzzy的思想。
2、使用 public FuzzyQuery(Term term, float minimumSimilarity)构造查询
现在,使用该构造方法进行构造,可以对minimumSimilarity进行设置。因为0<=minimumSimilarity<1.0,我们设置只能在这个范围之内。,分别对中文和英文测试一下。
(1) 设置minimumSimilarity = 0.98
◆ 对于中文的情形:
Term term = new Term("contents","文件夹");
fqs.fuzzyQuery = new FuzzyQuery(term,0.98f);
检索结果如下所示:
********************************************************************
Document的内部编号为 : 0
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件夹
>>
Document的得分为 : 1.0
********************************************************************
共检索出符合条件的Document 1 个。
本次搜索所用的时间为 78 ms
可见,使用中文,设置minimumSimilarity = 0.98是接近精确匹配的检索结果。
◆ 对于英文的情形:
Term term = new Term("contents","compiler");
fqs.fuzzyQuery = new FuzzyQuery(term,0.98f);
检索结果如下所示:
********************************************************************
Document的内部编号为 : 5
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compiler
>>
Document的得分为 : 1.0
********************************************************************
共检索出符合条件的Document 1 个。
本次搜索所用的时间为 125 ms
可见,对于英文,minimumSimilarity的值越大,匹配越精确。
综上所述,minimumSimilarity的值越大,检索时匹配越精确,获得的检索结果就越少。
(2) 设置minimumSimilarity = 0.75
◆ 对于中文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 0
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件夹
>>
Document的得分为 : 1.0
********************************************************************
共检索出符合条件的Document 1 个。
本次搜索所用的时间为 140 ms
◆ 对于英文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 5
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compiler
>>
Document的得分为 : 1.0
Document的内部编号为 : 4
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compile
>>
Document的得分为 : 0.42857143
********************************************************************
共检索出符合条件的Document 2 个。
本次搜索所用的时间为 219 ms
(3) 设置minimumSimilarity = 0.60
◆ 对于中文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 0
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件夹
>>
Document的得分为 : 1.0
Document的内部编号为 : 1
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件名
>>
Document的得分为 : 0.16666652
********************************************************************
共检索出符合条件的Document 2 个。
本次搜索所用的时间为 219 ms
◆ 对于英文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 5
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compiler
>>
Document的得分为 : 1.0
Document的内部编号为 : 4
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compile
>>
Document的得分为 : 0.64285713
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compleat
>>
Document的得分为 : 0.06249995
Document的内部编号为 : 3
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:complete
>>
Document的得分为 : 0.06249995
********************************************************************
共检索出符合条件的Document 4 个。
本次搜索所用的时间为 328 ms
(4) 设置minimumSimilarity = 0.40
◆ 对于中文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 0
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件夹
>>
Document的得分为 : 0.99999994
Document的内部编号为 : 1
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件名
>>
Document的得分为 : 0.44444436
********************************************************************
共检索出符合条件的Document 2 个。
◆ 对于英文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 5
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compiler
>>
Document的得分为 : 0.99999994
Document的内部编号为 : 4
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compile
>>
Document的得分为 : 0.7619048
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compleat
>>
Document的得分为 : 0.375
Document的内部编号为 : 3
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:complete
>>
Document的得分为 : 0.375
********************************************************************
共检索出符合条件的Document 4 个。
本次搜索所用的时间为 453 ms
(5) 设置minimumSimilarity = 0.25
对于中文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 0
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件夹
>>
Document的得分为 : 1.0
Document的内部编号为 : 1
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件名
>>
Document的得分为 : 0.5555556
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件精神
>>
Document的得分为 : 0.1111111
********************************************************************
共检索出符合条件的Document 3 个。
本次搜索所用的时间为 172 ms
对于英文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 5
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compiler
>>
Document的得分为 : 1.0
Document的内部编号为 : 4
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compile
>>
Document的得分为 : 0.8095239
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compleat
>>
Document的得分为 : 0.5
Document的内部编号为 : 3
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:complete
>>
Document的得分为 : 0.5
********************************************************************
共检索出符合条件的Document 4 个。
本次搜索所用的时间为 328 ms
(6) 设置minimumSimilarity = 0.00
对于中文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 0
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件夹>>
Document的得分为 : 1.0
Document的内部编号为 : 1
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件名>>
Document的得分为 : 0.6666666
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文件精神>>
Document的得分为 : 0.3333333
********************************************************************
共检索出符合条件的Document 3 个。
本次搜索所用的时间为 234 ms
对于英文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 5
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compiler
>>
Document的得分为 : 1.0
Document的内部编号为 : 4
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compile
>>
Document的得分为 : 0.85714287
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compleat
>>
Document的得分为 : 0.62499994
Document的内部编号为 : 3
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:complete
>>
Document的得分为 : 0.62499994
********************************************************************
共检索出符合条件的Document 4 个。
本次搜索所用的时间为 328 ms
从上面的检索结果可以看出,minimumSimilarity没有Fuzzy数学中的那种对称性,而是递减的,即:minimumSimilarity的值越大,检索出的结果越少,但是越精确。
3、使用 public FuzzyQuery(Term term, float minimumSimilarity, int prefixLength)构造查询
这里,对中文的测试,准备工作很重要:分别使用ThesaurusAnalyzer分析器和StandardAnalyzer分析器建立索引,使得索引目录中既包含ThesaurusAnalyzer分析器的词库,又包含使用StandardAnalyzer分析器分词得到的单个汉字作为一个词条。
不要使用StandardAnalyzer分析器对下面除了“武”以外的词条进行分词,只使用StandardAnalyzer分析器对“武”进行分词,因为要保证只有一个Document中含有“武”这个词条。
建立索引的函数修改为:
Field fieldA = new Field("contents","武",Field.Store.YES,Field.Index.TOKENIZED);
Document docA = new Document();
docA.add(fieldA);
Field fieldB = new Field("contents","文修武偃",Field.Store.YES,Field.Index.TOKENIZED);
Document docB = new Document();
docB.add(fieldB);
Field fieldC = new Field("contents","文东武西",Field.Store.YES,Field.Index.TOKENIZED);
Document docC = new Document();
docC.add(fieldC);
Field fieldD = new Field("contents","不使用武力",Field.Store.YES,Field.Index.TOKENIZED);
Document docD = new Document();
docD.add(fieldD);
Field fieldE = new Field("contents","不文不武",Field.Store.YES,Field.Index.TOKENIZED);
Document docE = new Document();
docE.add(fieldE);
writer.addDocument(docA);
writer.addDocument(docB);
writer.addDocument(docC);
writer.addDocument(docD);
writer.addDocument(docE);
对于中文,即:
Term term = new Term("contents","文东武西");
fqs.fuzzyQuery = new FuzzyQuery(term,0.00f,10);
对于英文,即:
Term term = new Term("contents","compiler");
fqs.fuzzyQuery = new FuzzyQuery(term,0.00f,0);
(1) 设置minimumSimilarity = 0.00,prefixLength =0
对于中文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文东武西>>
Document的得分为 : 0.99999994
Document的内部编号为 : 1
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文修武偃>>
Document的得分为 : 0.49999997
Document的内部编号为 : 4
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:不文不武>>
Document的得分为 : 0.24999999
********************************************************************
共检索出符合条件的Document 3 个。
本次搜索所用的时间为 343 ms
检索结果如下所示:
********************************************************************
Document的内部编号为 : 5
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compiler>>
Document的得分为 : 1.0
Document的内部编号为 : 4
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compile>>
Document的得分为 : 0.85714287
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compleat>>
Document的得分为 : 0.62499994
Document的内部编号为 : 3
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:complete>>
Document的得分为 : 0.62499994
********************************************************************
共检索出符合条件的Document 4 个。
本次搜索所用的时间为 375 ms
(2) 设置minimumSimilarity = 0.00,prefixLength =10
对于中文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文东武西>>
Document的得分为 : 1.0
********************************************************************
共检索出符合条件的Document 1 个。
本次搜索所用的时间为 297 ms
对于英文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 5
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compiler>>
Document的得分为 : 1.0
********************************************************************
共检索出符合条件的Document 1 个。
本次搜索所用的时间为 328 ms
(3) 设置minimumSimilarity = 0.98,prefixLength =0
对于中文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文东武西>>
Document的得分为 : 1.0
********************************************************************
共检索出符合条件的Document 1 个。
本次搜索所用的时间为 313 ms
对于英文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 5
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compiler>>
Document的得分为 : 1.0
********************************************************************
共检索出符合条件的Document 1 个。
本次搜索所用的时间为 344 ms
(4) 设置minimumSimilarity = 0.98,prefixLength =10
对于中文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 2
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:文东武西>>
Document的得分为 : 1.0
********************************************************************
共检索出符合条件的Document 1 个。
本次搜索所用的时间为 313 ms
对于英文:
检索结果如下所示:
********************************************************************
Document的内部编号为 : 5
Document内容为 : Document<stored/uncompressed,indexed,tokenized<contents:compiler>>
Document的得分为 : 1.0
********************************************************************
共检索出符合条件的Document 1 个。
本次搜索所用的时间为 359 ms
总结
minimumSimilarity越小,模糊度越大,检索出的结果越少,但是越精确;
prefixLength越小,模糊度越到,检索出的结果越少,但是越精确。
发表评论
-
全文检索的基本原理
2010-02-25 10:22 884一、总论 根据http://lucene.apache.or ... -
lucene 分组 bobo-Browse 排序的问题
2010-02-01 16:18 2227今天碰到了一个问题,用bobo分组后对价格升序 居然100 ... -
开源搜索引擎
2010-02-01 14:31 1705开放源代码搜索引擎为 ... -
lucene中的filter器群组及其缓存大盘点
2010-01-20 23:18 1209lucene中的filter其实并不起眼,大家对其对性能的影响 ... -
利用bobo-browse 实现lucene的分组统计功能
2010-01-18 17:50 2949bobo-browse 是一用java写的lucene扩展组件 ... -
lucene Field部分参数设置含义
2009-11-07 17:51 1253<script type="text/ja ... -
刚下载,开始学习lucene时看的文章
2009-09-04 18:43 1438Lucene 2.0.0下载安装及测试 【下载】 下载链接 ... -
Lucene-2.3.1 阅读学习(42)
2009-09-04 18:42 952关于Hits类。 这个Hits类 ... -
Lucene 2.3.1 阅读学习(41)
2009-09-04 18:42 1419当执行Hits htis = search(query);这一 ... -
Lucene-2.3.1 源代码阅读学习(40)
2009-09-04 18:41 996关于Lucene检索结果的排序问题。 已经知道,Lucene ... -
Lucene-2.3.1 源代码阅读学习(39)
2009-09-04 18:41 1160关于Lucene得分的计算。 在IndexSearcher类 ... -
Lucene-2.3.1 源代码阅读学习(39)
2009-09-04 18:38 567关于Lucene得分的计算。 在IndexSearcher类 ... -
Lucene-2.3.1 源代码阅读学习(38)
2009-09-04 18:38 926关于QueryParser。 QueryParser是用来解 ... -
Lucene-2.3.1 源代码阅读学习(37)
2009-09-04 18:37 638关于MultiTermQuery查询。 这里研究继承自Mul ... -
Lucene-2.3.1 源代码阅读学习(35)
2009-09-04 18:36 849关于MultiPhraseQuery(多短语查询)。 Mul ... -
Lucene-2.3.1 源代码阅读学习(34)
2009-09-04 18:36 643关于PhraseQuery。 PhraseQuery查询是将 ... -
Lucene-2.3.1 源代码阅读学习(33)
2009-09-04 18:35 874关于范围查询RangeQuery。 ... -
Lucene-2.3.1 源代码阅读学习(32)
2009-09-04 18:35 1160关于SpanQuery(跨度搜索),它是Query的子类,但是 ... -
Lucene-2.3.1 源代码阅读学习(31)
2009-09-04 18:34 878关于前缀查询PrefixQuery(前缀查询)。 准备工作就 ... -
Lucene-2.3.1 源代码阅读学习(30)
2009-09-04 18:34 1070关于Query的学习。 主要使用TermQuery和Bool ...
相关推荐
《Lucene-2.3.1 源代码阅读学习》 Lucene是Apache软件基金会的一个开放源码项目,它是一个高性能、全文本搜索库,为开发者提供了在Java应用程序中实现全文检索功能的基础架构。本篇文章将深入探讨Lucene 2.3.1版本...
总而言之,Lucene 2.3.1作为一款经典的搜索引擎框架,它的源代码不仅提供了学习信息检索理论的机会,也是实践和掌握Java编程、数据结构和算法的宝贵资源。通过对压缩包中的文件进行分析,开发者可以深入了解Lucene的...
通过深入学习和理解这些源代码文件,开发者可以更好地掌握 Lucene.Net 的核心功能,如索引构建、查询解析、搜索排序、分词和性能优化。这有助于在实际项目中实现高效、精确的全文搜索引擎。同时,研究源码也能提升对...
4.其中src文件夹内为全部源代码,WebRoot为web应用部署文件 5.本系统的最小有效组件集合为:(约定:以下“*.*”均表示目录下的所有单独文件,不包括文件夹,而“/s”则表示所有的文件夹及其内部内容) src\*.* /s ...
### Lucene+Solor知识点概述 #### 一、搜索引擎基础理论 **1.1 Google神话** - **起源与发展:** - Google成立于1998年,由Larry Page和Sergey Brin创立。 - 初期以PageRank算法为核心,有效解决了当时互联网...
- **开源协议**:使用Apache License 2.0协议,源代码完全开源,没有商业限制。 - **技术栈成熟**:使用当前最主流的J2EE开发框架和技术,易于学习和维护。 - **数据库支持广泛**:支持多种数据库,如MySQL、Oracle...
- **1.4.1 目录结构说明**:Solr项目的目录结构清晰,主要包括src/main/java下的源代码、src/main/resources下的资源文件等。 - **1.4.2 Solrhome说明**:Solrhome是Solr实例的工作目录,包含了索引数据、配置文件等...
- **1.4.1 目录结构说明**:Solr的核心源码主要由几个关键部分组成,如`src/main/java`包含Java源代码,`src/main/resources`存放配置文件等。 - **1.4.2 Solrhome说明**:Solrhome是Solr运行时使用的根目录,包含了...
CAS (Central Authentication Service) 是一种开放源代码的单点登录协议和服务实现,主要用于Web应用的安全身份验证。CAS支持跨域的身份验证管理,允许用户通过一个中心服务进行一次登录即可访问多个应用系统。 **...
2.3.1. 保存 ACL 数据确保持久性 2.3.2. 使用声明(Assert)来编写条件性的 ACL 规则 3. Zend_Auth 3.1. 简介 3.1.1. 适配器 3.1.2. 结果 3.1.3. 身份的持久(Persistence) 3.1.3.1. 在PHP Session 中的缺省...