- 浏览: 930826 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (445)
- 备忘 (0)
- java基础 (28)
- jsp (15)
- css (4)
- javascript (30)
- struts (7)
- servlet (2)
- struts2 (7)
- jdbc (16)
- hibernate (22)
- ibatis (0)
- jpa (1)
- spring (17)
- spring定时任务 (8)
- 整合开发 (12)
- JavaArticle (0)
- php (6)
- velocity (2)
- mysql (19)
- sqlserver (52)
- oracle (23)
- lucene (49)
- ajax (13)
- dwr (5)
- JFreeChart (1)
- service (14)
- tools (18)
- c#基础 (20)
- 程序安全 (0)
- 学习网站 (1)
- 社会需求 (2)
- flash (1)
- 流媒体 (1)
- java_code (1)
- htmlparser (1)
- 速动画教程 (5)
- 设计模式 (1)
- xml操作 (2)
- uml操作 (4)
- 测试 (1)
- linux (8)
- 版本控制 (4)
- 服务器 (12)
- 安全 (6)
- 美工 (2)
最新评论
-
Zhang_amao:
我想问一下, 你用的lucene版本和highligher的版 ...
使用Lucene的Highlighter实现文件摘要的自动提取 -
wangmengfanwangzhi:
博主,你的QQ是什么啊?有关于lucene的问题想要请教啊~~ ...
Lucene下载及测试 -
cutesunshineriver:
讲得很好,理解起来很顺,对个人学习的帮助性很大,谢谢博主。
velocity入门一 -
libin2722:
我这里有一个任务调度,在晚上3点时候会自动将数据库中某表的数据 ...
Lucene-2.2.0 源代码阅读学习(16) -
greatwqs:
java -cp $JVM_ARGS $classpath ...
java的cp命令
关于SpanQuery(跨度搜索),它是Query的子类,但是SpanQuery仍然是一个抽象类,它有6个直接子类实现类。继承关系如图所示:
其中SpanTermQuery是一个最基础的跨度搜索实现类,SpanTermQuery与SpanQuery的关系,就如同TermQuery与Query的关系:SpanTermQuery是为SpanQuery其它的具体实现子类服务的,其实TermQuery也是为Query的具体子类实现类服务的,例如构造一个BooleanQuery查询,可以向其中添加多个TermQuery查询子句。
SpanTermQuery跨度搜索
SpanTermQuery的应用与TermQuery的用法是一样的,获取到的检索结果集也是相同的。
这里,SpanTermQuery是SpanQuery的子实现类,所有从跨度搜索的角度来说,他的跨度值就是使用SpanTermQuery的唯一的一个构造方法所用的一个Term的跨度值。也就是说,它的起始位置和结束位置都是一个固定的值(其实就是一个固定跨度)。
SpanFirstQuery跨度搜索
SpanFirstQuery搜索是基于SpanTermQuery的,在实例化一个SpanFirstQuery的时候,是通过一个SpanTermQuery的实例作为参数来构造的。
该SpanFirstQuery只有唯一的一个构造方法:
public SpanFirstQuery(SpanQuery match, int end) {
this.match = match;
this.end = end;
}
上面的end指定了在查询时,从起始位置开始(起始位置为0,这点可以在后面的测试中得知。因为名称中First已经表达了这层含义),在小于end的位置之前的文本中,与match进行匹配。
先使用ThesaurusAnalyzer分析器来实现分词,为指定的数据建立索引,如下所示:
package org.apache.lucene.shirdrn.main;
import java.io.IOException;
import net.teamhot.lucene.ThesaurusAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.CorruptIndexException;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.store.LockObtainFailedException;
public class MySearchEngineUsingThesaurusAnalyzer {
public static void main(String[] args){
String indexPath = "E:\\Lucene\\index";
IndexWriter writer;
try {
writer = new IndexWriter(indexPath,new ThesaurusAnalyzer(),true);
Field fieldA = new Field("contents","今天是我们地球的生日,对于我们每个人,在我们的宇宙中,一场空前关于我们熟悉的宇宙论的辩论激烈地展开了。",Field.Store.YES,Field.Index.TOKENIZED);
Document docA = new Document();
docA.add(fieldA);
Field fieldB1 = new Field("contents","谁知道宇宙空间的奥秘,在我们这些人当中?",Field.Store.YES,Field.Index.TOKENIZED);
Field fieldB2 = new Field("contents","宇宙飞船。",Field.Store.YES,Field.Index.TOKENIZED);
Field fieldB3 = new Field("contents","我们的太空宇宙。",Field.Store.YES,Field.Index.TOKENIZED);
Document docB = new Document();
docB.add(fieldB1);
docB.add(fieldB2);
docB.add(fieldB3);
Field fieldC = new Field("contents","我们宇宙学家对地球的重要性。",Field.Store.YES,Field.Index.TOKENIZED);
Document docC = new Document();
docC.add(fieldC);
writer.addDocument(docA);
writer.addDocument(docB);
writer.addDocument(docC);
writer.close();
} catch (CorruptIndexException e) {
e.printStackTrace();
} catch (LockObtainFailedException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
}
首先要把ThesaurusAnalyzer分析器的jar包加入到CLASSPATH中,然后运行上面的主函数,建立索引。
建立的索引文件在本地磁盘指定的索引目录E:\Lucene\index下生成,这时候可以测试SpanFirstQuery的使用了。
因为ThesaurusAnalyzer分析器自带了一个词库,该词库中有词条“我们”,我们就通过“我们”来构造SpanQuery,进行查询。
编写一个SpanFirstQuerySearcher测试类,带主函数,如下所示:
package org.apache.lucene.shirdrn.main;
import java.io.IOException;
import java.util.Date;
import java.util.List;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.CorruptIndexException;
import org.apache.lucene.index.Term;
import org.apache.lucene.index.TermDocs;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.spans.SpanFirstQuery;
import org.apache.lucene.search.spans.SpanQuery;
import org.apache.lucene.search.spans.SpanTermQuery;
public class SpanFirstQuerySearcher {
public static void main(String[] args) {
String indexPath = "E:\\Lucene\\index";
try {
IndexSearcher searcher = new IndexSearcher(indexPath);
String keyword = "我们";
Term term = new Term("contents",keyword);
SpanTermQuery spanTermQuery = new SpanTermQuery(term);
int end = 1;
SpanQuery spanFirstQuery = new SpanFirstQuery(spanTermQuery,end);
System.out.println("####################################################################");
System.out.println("SpanFirstQuery中end指定值为 : "+end);
System.out.println("####################################################################");
Date startTime = new Date();
Hits hits = searcher.search(spanFirstQuery);
for(int i=0;i<hits.length();i++){
TermDocs termDocs = searcher.getIndexReader().termDocs(term);
while(termDocs.next()){
if(termDocs.doc() == hits.id(i)){
System.out.println("Document的内部编号为 : "+hits.id(i));
Document doc = hits.doc(i);
System.out.println("Document的得分为 : "+hits.score(i));
List fieldList = doc.getFields();
System.out.println("Document(编号) "+hits.id(i)+" 的Field的信息: ");
for(int j=0;j<fieldList.size();j++){
Field field = (Field)fieldList.get(j);
System.out.println(" Field的name : "+field.name());
System.out.println(" Field的stringValue : "+field.stringValue());
System.out.println(" ------------------------------------");
}
System.out.println("搜索的该关键字【"+keyword+"】在Document(编号) "+hits.id(i)+" 中,出现过 "+termDocs.freq()+" 次");
}
}
}
System.out.println("********************************************************************");
Date finishTime = new Date();
long timeOfSearch = finishTime.getTime() - startTime.getTime();
System.out.println("本次搜索所用的时间为 "+timeOfSearch+" ms");
} catch (CorruptIndexException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
}
}
当end=1时,也就是从具有一个词条的跨度,运行结果如下所示:
####################################################################
SpanFirstQuery中end指定值为 : 1
####################################################################
Document的内部编号为 : 2
Document的得分为 : 0.18888181
Document(编号) 2 的Field的信息:
Field的name : contents
Field的stringValue : 我们宇宙学家对地球的重要性。
------------------------------------
搜索的该关键字【我们】在Document(编号) 2 中,出现过 1 次
********************************************************************
本次搜索所用的时间为 78 ms
这里docB没有被检索出来。
当end=5时,增大了跨度,执行结果如下所示:
####################################################################
SpanFirstQuery中end指定值为 : 5
####################################################################
Document的内部编号为 : 2
Document的得分为 : 0.18888181
Document(编号) 2 的Field的信息:
Field的name : contents
Field的stringValue : 我们宇宙学家对地球的重要性。
------------------------------------
搜索的该关键字【我们】在Document(编号) 2 中,出现过 1 次
Document的内部编号为 : 0
Document的得分为 : 0.09444091
Document(编号) 0 的Field的信息:
Field的name : contents
Field的stringValue : 今天是我们地球的生日,对于我们每个人,在我们的宇宙中,一场空前关于我们熟悉的宇宙论的辩论激烈地展开了。
------------------------------------
搜索的该关键字【我们】在Document(编号) 0 中,出现过 4 次
********************************************************************
本次搜索所用的时间为 62 ms
当end=10的时候,可以看到3个Document都被检索到,如下所示:
####################################################################
SpanFirstQuery中end指定值为 : 10
####################################################################
Document的内部编号为 : 2
Document的得分为 : 0.18888181
Document(编号) 2 的Field的信息:
Field的name : contents
Field的stringValue : 我们宇宙学家对地球的重要性。
------------------------------------
搜索的该关键字【我们】在Document(编号) 2 中,出现过 1 次
Document的内部编号为 : 0
Document的得分为 : 0.13355961
Document(编号) 0 的Field的信息:
Field的name : contents
Field的stringValue : 今天是我们地球的生日,对于我们每个人,在我们的宇宙中,一场空前关于我们熟悉的宇宙论的辩论激烈地展开了。
------------------------------------
搜索的该关键字【我们】在Document(编号) 0 中,出现过 4 次
Document的内部编号为 : 1
Document的得分为 : 0.1259212
Document(编号) 1 的Field的信息:
Field的name : contents
Field的stringValue : 谁知道宇宙空间的奥秘,在我们这些人当中?
------------------------------------
Field的name : contents
Field的stringValue : 宇宙飞船。
------------------------------------
Field的name : contents
Field的stringValue : 我们的太空宇宙。
------------------------------------
搜索的该关键字【我们】在Document(编号) 1 中,出现过 2 次
********************************************************************
本次搜索所用的时间为 234 ms
SpanNearQuery跨度搜索
SpanNearQuery只有一个构造方法,可以从SpanNearQuery的构造方法来看:
public SpanNearQuery(SpanQuery[] clauses, int slop, boolean inOrder) {
this.clauses = new ArrayList(clauses.length);
for (int i = 0; i < clauses.length; i++) {
SpanQuery clause = clauses[i];
if (i == 0) {
field = clause.getField();
} else if (!clause.getField().equals(field)) {
throw new IllegalArgumentException("Clauses must have same field.");
}
this.clauses.add(clause);
}
this.slop = slop;
this.inOrder = inOrder;
}
从方法的声明来看,各个参数如下:
clauses是指:一个SpanQuery的子句的数组;
slop是指:对于每个SpanQuery都由一个Term构造而成,在一段文本中,可能在出现的这两个词条之间由若干个其它不相关的词条,slop指定了一个整数值,从而可以忽略这些不相关的词条(忽略的个数<=slop),如果slop=0,则说明clauses中的SpanQuery查询的词条必须是相连着的;
inOrder是指:是否clauses子句们按照有序的方式实现搜索,当inOrder为true时,必须按照各个子句中检索的词条的前后顺序进行匹配,逆序的就被淘汰。
依然用上面建立的索引文件测试。
测试通过先构造一个SpanTermQuery(词条内容为“我们”)和一个SpanFirstQuery(词条内容为“宇宙”),再构造一个SpanNearQuery,测试代码如下所示:
package org.apache.lucene.shirdrn.main;
import java.io.IOException;
import java.util.Date;
import java.util.List;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.CorruptIndexException;
import org.apache.lucene.index.Term;
import org.apache.lucene.index.TermDocs;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.spans.SpanFirstQuery;
import org.apache.lucene.search.spans.SpanNearQuery;
import org.apache.lucene.search.spans.SpanQuery;
import org.apache.lucene.search.spans.SpanTermQuery;
public class SpanNearQuerySearcher {
public static void main(String[] args) {
String indexPath = "E:\\Lucene\\index";
try {
IndexSearcher searcher = new IndexSearcher(indexPath);
String keywordA = "我们";
Term termA = new Term("contents",keywordA);
SpanTermQuery spanTermQueryA = new SpanTermQuery(termA);
int end = 10;
System.out.println("####################################################################");
System.out.println("SpanFirstQuery中end指定值为 : "+end);
System.out.println("####################################################################");
SpanQuery spanFirstQuery = new SpanFirstQuery(spanTermQueryA,end);
String keywordB = "宇宙";
Term termB = new Term("contents",keywordA);
SpanTermQuery spanTermQueryB = new SpanTermQuery(termB);
int slop = 2;
System.out.println("####################################################################");
System.out.println("SpanNearQuery中slop指定值为 : "+slop);
System.out.println("####################################################################");
SpanNearQuery spanNearQuery = new SpanNearQuery(new SpanQuery[]{spanFirstQuery,spanTermQueryB},slop,true);
Date startTime = new Date();
Hits hits = searcher.search(spanNearQuery);
for(int i=0;i<hits.length();i++){
System.out.println("Document的内部编号为 : "+hits.id(i));
Document doc = hits.doc(i);
System.out.println("Document的得分为 : "+hits.score(i));
List fieldList = doc.getFields();
System.out.println("Document(编号) "+hits.id(i)+" 的Field的信息: ");
for(int j=0;j<fieldList.size();j++){
Field field = (Field)fieldList.get(j);
System.out.println(" Field的name : "+field.name());
System.out.println(" Field的stringValue : "+field.stringValue());
System.out.println(" ------------------------------------");
}
}
System.out.println("********************************************************************");
Date finishTime = new Date();
long timeOfSearch = finishTime.getTime() - startTime.getTime();
System.out.println("本次搜索所用的时间为 "+timeOfSearch+" ms");
} catch (CorruptIndexException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
}
}
这里,指定了slop=2,inOrder=true,即:“我们”和“宇宙”是按先后顺序在Document中进行匹配的。
运行测试程序,结果如下:
####################################################################
SpanFirstQuery中end指定值为 : 10
####################################################################
####################################################################
SpanNearQuery中slop指定值为 : 2
####################################################################
Document的内部编号为 : 0
Document的得分为 : 0.059729677
Document(编号) 0 的Field的信息:
Field的name : contents
Field的stringValue : 今天是我们地球的生日,对于我们每个人,在我们的宇宙中,一场空前关于我们熟悉的宇宙论的辩论激烈地展开了。
------------------------------------
********************************************************************
本次搜索所用的时间为 93 ms
其实,我们指定了SpanFirstQuery足够大的跨度,但是在SpanNearQuery中指定的slop的值很小,在进行匹配的时候,只是允许两个词条之间可以有2个无关的其它词条,再加上指定了inOrder为true,严格有序,所以只检索到了编号为0的Document。
现在,将slop改为10,因为slop比较关键,决定了两个检索词条之间的间隙大小,这时可以看到检索结果如下所示:
####################################################################
SpanFirstQuery中end指定值为 : 10
####################################################################
####################################################################
SpanNearQuery中slop指定值为 : 10
####################################################################
Document的内部编号为 : 0
Document的得分为 : 0.078204505
Document(编号) 0 的Field的信息:
Field的name : contents
Field的stringValue : 今天是我们地球的生日,对于我们每个人,在我们的宇宙中,一场空前关于我们熟悉的宇宙论的辩论激烈地展开了。
------------------------------------
Document的内部编号为 : 1
Document的得分为 : 0.06730772
Document(编号) 1 的Field的信息:
Field的name : contents
Field的stringValue : 谁知道宇宙空间的奥秘,在我们这些人当中?
------------------------------------
Field的name : contents
Field的stringValue : 宇宙飞船。
------------------------------------
Field的name : contents
Field的stringValue : 我们的太空宇宙。
------------------------------------
********************************************************************
本次搜索所用的时间为 125 ms
SpanNearQuery的构造方法给了一个SpanQuery[] clauses子句数组,可以使用任何继承了SpanQuery的具体实现类,当然也包括SpanNearQuery,将它们添加到子句的数组中,实现复杂的搜索。
SpanNotQuery跨度搜索
依然从构造方法看:
public SpanNotQuery(SpanQuery include, SpanQuery exclude) {
this.include = include;
this.exclude = exclude;
if (!include.getField().equals(exclude.getField()))
throw new IllegalArgumentException("Clauses must have same field.");
}
该SpanNotQuery指定了一个SpanQuery include,该include子句查询会得到一个结果的集合,设为集合A;SpanQuery exclude也可以得到一个结果的集合,设为集合B,则SpanNotQuery检索结果的集合表示为:
A-B
很好理解,就是集合的差运算。
SpanOrQuery跨度搜索
这个也很好理解,就是集合的并运算,它的构造方法如下所示:
public SpanOrQuery(SpanQuery[] clauses) {
this.clauses = new ArrayList(clauses.length);
for (int i = 0; i < clauses.length; i++) {
SpanQuery clause = clauses[i];
if (i == 0) {
field = clause.getField();
} else if (!clause.getField().equals(field)) {
throw new IllegalArgumentException("Clauses must have same field.");
}
this.clauses.add(clause);
}
}
只要把你想要检索的SpanQuery子句构造好以后,添加到SpanQuery[] clauses数组中,谈后执行SpanOrQuery跨度搜索的时候,会把每个子句得到的结果合并起来,得到一个很庞大的检索结果集。
SpanRegexQuery跨度搜索
构造该SpanQuery也很容易:
public SpanRegexQuery(Term term) {
this.term = term;
}
只需要一个Term作为参数即可。从该SpanRegexQuery的名称来看,就知道它和正则表达式有一定的联系。其实在构造好一个SpanRegexQuery以后,可以为其设置一个正则表达式,这要看你对正则表达式的运用的熟练程度如何了。
在SpanRegexQuery中定义了两个成员变量:
private RegexCapabilities regexImpl = new JavaUtilRegexCapabilities();
private Term term;
而且SpanRegexQuery实现了RegexQueryCapable接口:
public class SpanRegexQuery extends SpanQuery implements RegexQueryCapable
如果你想使用SpanRegexQuery实现跨度搜索,可以研究一下与SpanRegexQuery相关的JavaUtilRegexCapabilities类,在JavaUtilRegexCapabilities中涉及到了java.util.regex.Pattern,它可不是Lucene定义的,是第三方提供的。
发表评论
-
创建索引的时候出现的错误
2010-01-04 10:13 1712<OFMsg>251658517"1&q ... -
SQLServer2005获取大数据集时内存不足的解决办法
2009-02-12 10:59 2004今天在修改search的建立索引的程序的时候,发现了这个错误 ... -
使用Lucene的Highlighter实现文件摘要的自动提取
2009-02-06 16:52 6661使用Lucene自带的Highlighter就可以实现对原始文 ... -
Lucene倒排索引原理
2009-02-06 16:08 1158Lucene是一个高性能的java全文检索工具包,它使用的是倒 ... -
Lucene 2.2.0发布自带的HTMLParser的使用
2009-02-06 16:00 2551Lucene 2.2.0发行包中自带 ... -
Lucene关键字高亮显示
2009-02-06 15:53 2383在Lucene的org.apache.lucene.s ... -
Lucene-2.2.0 源代码阅读学习(42)
2009-02-06 15:46 1337关于Hits类。这个Hits类 ... -
Lucene-2.2.0 源代码阅读学习(41)
2009-02-06 15:40 1115当执行Hits htis = search(query);这一 ... -
Lucene-2.2.0 源代码阅读学习(40)
2009-02-06 15:34 1197关于Lucene检索结果的排序问题。 已经知道,Lucene的 ... -
Lucene-2.2.0 源代码阅读学习(39)
2009-02-06 15:31 1124关于Lucene得分的计算。 在IndexSearcher类中 ... -
Lucene-2.2.0 源代码阅读学习(38)
2009-02-06 15:13 1134关于QueryParser。 QueryParser是用来解析 ... -
Lucene-2.2.0 源代码阅读学习(37)
2009-02-06 15:06 1070关于MultiTermQuery查询。 这里研究继承自Mult ... -
Lucene-2.2.0 源代码阅读学习(36)
2009-02-06 15:05 1022关于MultiTermQuery查询。 这里研究FuzzyQu ... -
Lucene-2.2.0 源代码阅读学习(35)
2009-02-06 15:03 947于MultiPhraseQuery(多短语查询)。 Multi ... -
Lucene-2.2.0 源代码阅读学习(34)
2009-02-06 15:02 974关于PhraseQuery。 PhraseQuery查询是将多 ... -
Lucene-2.2.0 源代码阅读学习(33)
2009-02-06 15:01 1001关于范围查询RangeQuery。 ... -
Lucene-2.2.0 源代码阅读学习(31)
2009-02-06 14:58 952关于前缀查询PrefixQuery(前缀查询)。 准备工作就是 ... -
Lucene-2.2.0 源代码阅读学习(30)
2009-02-06 14:57 758关于Query的学习。 主要使用TermQuery和Boole ... -
Lucene-2.2.0 源代码阅读学习(29)
2009-02-06 14:54 1162关于IndexSearcher检索器。 ... -
Lucene-2.2.0 源代码阅读学习(28)
2009-02-06 14:48 1290关于检索的核心IndexSearcher类。 IndexSea ...
相关推荐
lucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-...
标题中的"lucene-2.2.0zip"指的是Lucene的2.2.0版本,这是一个较早的版本,对于学习和理解Lucene的基础概念非常有帮助。 Lucene 2.2.0的主要特性包括: 1. **全文检索**:Lucene支持对文档内容进行全文检索,允许...
lucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jar
《Lucene-2.3.1 源代码阅读学习》 Lucene是Apache软件基金会的一个开放源码项目,它是一个高性能、全文本搜索库,为开发者提供了在Java应用程序中实现全文检索功能的基础架构。本篇文章将深入探讨Lucene 2.3.1版本...
《深入解析Lucene高亮显示源码:剖析`lucene-highlighter-2.2.0-src.zip`》 Lucene,作为一个开源全文检索库,以其高效、灵活的特点在信息检索领域广泛应用。在处理搜索结果时,为了提升用户体验,通常会采用高亮...
《深入剖析Lucene 2.2.0源代码》 Lucene是一款强大的开源全文搜索引擎库,由Apache软件基金会开发并维护。它为Java开发者提供了一种高性能、可扩展的文本检索核心工具。本文将深入探讨Lucene 2.2.0版本的源代码,...
在前面Lucene-2.2.0 源代码阅读学习(1)中,根据Lucene提供的一个Demo,详细分析研究一下索引器org.apache.lucene.index.IndexWriter类,看看它是如果定义的,掌握它建立索引的机制。 通过IndexWriter类的实现源代码...
赠送源代码:lucene-analyzers-smartcn-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-analyzers-smartcn-7.7.0.pom; 包含翻译后的API文档:lucene-analyzers-smartcn-7.7.0-javadoc-API文档-中文(简体)版....
赠送源代码:lucene-core-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-core-7.7.0.pom; 包含翻译后的API文档:lucene-core-7.7.0-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache.lucene:lucene...
- 通过阅读源代码,可以理解Lucene的内部工作原理,如如何构建索引、执行查询等。 - 分析器部分的源码有助于了解文本预处理过程,包括分词、去除停用词等。 - 探究查询解析器的实现,掌握如何将自然语言转化为...
赠送源代码:lucene-analyzers-common-6.6.0-sources.jar; 赠送Maven依赖信息文件:lucene-analyzers-common-6.6.0.pom; 包含翻译后的API文档:lucene-analyzers-common-6.6.0-javadoc-API文档-中文(简体)版.zip;...
这是一个java开发用的.jar文件,用它和Lucene-core-2.0.0.jar可以实现搜索引擎
赠送源代码:lucene-core-7.2.1-sources.jar; 赠送Maven依赖信息文件:lucene-core-7.2.1.pom; 包含翻译后的API文档:lucene-core-7.2.1-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache.lucene:lucene...
赠送源代码:lucene-suggest-6.6.0-sources.jar; 赠送Maven依赖信息文件:lucene-suggest-6.6.0.pom; 包含翻译后的API文档:lucene-suggest-6.6.0-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache....
赠送源代码:lucene-backward-codecs-7.3.1-sources.jar; 赠送Maven依赖信息文件:lucene-backward-codecs-7.3.1.pom; 包含翻译后的API文档:lucene-backward-codecs-7.3.1-javadoc-API文档-中文(简体)-英语-对照...
赠送源代码:lucene-core-6.6.0-sources.jar; 赠送Maven依赖信息文件:lucene-core-6.6.0.pom; 包含翻译后的API文档:lucene-core-6.6.0-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache.lucene:lucene...
赠送源代码:lucene-spatial-extras-7.3.1-sources.jar; 赠送Maven依赖信息文件:lucene-spatial-extras-7.3.1.pom; 包含翻译后的API文档:lucene-spatial-extras-7.3.1-javadoc-API文档-中文(简体)-英语-对照版....
赠送源代码:lucene-memory-6.6.0-sources.jar; 赠送Maven依赖信息文件:lucene-memory-6.6.0.pom; 包含翻译后的API文档:lucene-memory-6.6.0-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache.lucene:...
赠送源代码:lucene-suggest-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-suggest-7.7.0.pom; 包含翻译后的API文档:lucene-suggest-7.7.0-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache....
赠送源代码:lucene-analyzers-smartcn-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-analyzers-smartcn-7.7.0.pom; 包含翻译后的API文档:lucene-analyzers-smartcn-7.7.0-javadoc-API文档-中文(简体)-英语...