最近工作比较忙,一直没有更新,还请见谅。
最近lucene已经更新到lucene 3.0版本了 2.X版本的一些用法已经彻底不在支持了。
下面的例子主要是介绍中文分词器IKAnalyzer的使用和Lucene高亮显示。
lucene 3.x版本中有些2.x方法已经完全被剔除了,这里会捎带一下3.x的用法,当然我这里用的还是2.X的版本。
lucene自带的分词方式对中文分词十分的不友好,基本上可以用惨不忍睹来形容,所以这里推荐使用IKAnalyzer进行中文分词。
IKAnalyzer分词器是一个非常优秀的中文分词器。
下面是官方文档上的介绍
采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。
采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。
优化的词典存储,更小的内存占用。支持用户词典扩展定义.
针对Lucene全文检索优化的查询分析器
IKQueryParser(作者吐血推荐);采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。
1.IKAnalyzer的部署:将IKAnalyzer3.X.jar部署于项目的lib目录中;IKAnalyzer.cfg.xml与ext_stopword.dic文件放置在代码根目录下即可。
ok 部署完IKAnalyzer我们先来测试一下
package demo.test;
import java.io.IOException;
import java.io.StringReader;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.tokenattributes.TermAttribute;
import org.apache.lucene.analysis.tokenattributes.TypeAttribute;
import org.wltea.analyzer.lucene.IKAnalyzer;
public class TestIKAnalyzer {
public static void main(String[] args) throws IOException {
Analyzer analyzer = new IKAnalyzer();
TokenStream tokenStream = analyzer.tokenStream("", new StringReader("永和服装饰品有限公司"));
//2.x写法 3.0之后不支持了
/*Token token =new Token();
while(tokenStream.next(token)!=null){
System.out.println(token.term());
}*/
//3.x的写法
TermAttribute termAtt = (TermAttribute) tokenStream.getAttribute(TermAttribute.class);
TypeAttribute typeAtt = (TypeAttribute) tokenStream.getAttribute(TypeAttribute.class);
while (tokenStream.incrementToken()) {
System.out.print(termAtt.term());
System.out.print(' ');
System.out.println(typeAtt.type());
}
}
}
分词结果 永和 和服 服装 装饰品 装饰 饰品 有限公司 有限 公司
2.我们开始采用IKAnalyzer创建索引
package demo.test;
import java.io.BufferedReader;
import java.io.File;
import java.io.FileInputStream;
import java.io.IOException;
import java.io.InputStreamReader;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexWriter;
import org.wltea.analyzer.lucene.IKAnalyzer;
public class CreatIndex {
@SuppressWarnings("deprecation")
public static void main(String[] args) throws IOException {
String path = "index";//索引目录
Analyzer analyzer = new IKAnalyzer();//采用的分词器
IndexWriter iwriter = new IndexWriter(path, analyzer, true);
File dir = new File("data");//待索引的数据文件目录
File[] files = dir.listFiles();
for(int i=0;i<files.length;i++){
Document doc = new Document();
File file = files[i];
FileInputStream fis = new FileInputStream(file);
String content = "";
BufferedReader reader = new BufferedReader(new InputStreamReader(fis));
StringBuffer buffer = new StringBuffer("");
content = reader.readLine();
while (content != null) {
buffer.append(content);
content = reader.readLine();
}
doc.add(new Field("title",file.getName(),Field.Store.YES,Field.Index.ANALYZED));
doc.add(new Field("content",buffer.toString(),Field.Store.YES,Field.Index.ANALYZED));
iwriter.addDocument(doc);
}
iwriter.close();
}
}
3.对索引进行查询并进行高亮highlighter处理
package demo.test;
import java.io.File;
import java.io.IOException;
import java.io.StringReader;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.document.Document;
import org.apache.lucene.index.Term;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.TermQuery;
import org.apache.lucene.search.TopDocs;
import org.apache.lucene.search.highlight.Highlighter;
import org.apache.lucene.search.highlight.InvalidTokenOffsetsException;
import org.apache.lucene.search.highlight.QueryScorer;
import org.apache.lucene.search.highlight.SimpleFragmenter;
import org.apache.lucene.search.highlight.SimpleHTMLFormatter;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.wltea.analyzer.lucene.IKAnalyzer;
public class TestHighlighter {
@SuppressWarnings("deprecation")
public static void main(String[] args) throws IOException, InvalidTokenOffsetsException {
String path = "index";//索引目录
Directory dir = FSDirectory.getDirectory(new File(path));
IndexSearcher search = new IndexSearcher(dir);
Term term = new Term("content","纯粹");
Query query = new TermQuery(term);
TopDocs topDocs = search.search(query, 10);
ScoreDoc[] hits = topDocs.scoreDocs;
//正常产生的查询
for(int i=0;i<hits.length;i++){
Document doc = search.doc(hits[i].doc);
System.out.print(doc.get("title")+":");
System.out.println(doc.get("content"));
}
//高亮设置
Analyzer analyzer = new IKAnalyzer();//设定分词器
SimpleHTMLFormatter simpleHtmlFormatter = new SimpleHTMLFormatter("<B>","</B>");//设定高亮显示的格式,也就是对高亮显示的词组加上前缀后缀
Highlighter highlighter = new Highlighter(simpleHtmlFormatter,new QueryScorer(query));
highlighter.setTextFragmenter(new SimpleFragmenter(150));//设置每次返回的字符数.想必大家在使用搜索引擎的时候也没有一并把全部数据展示出来吧,当然这里也是设定只展示部分数据
for(int i=0;i<hits.length;i++){
Document doc = search.doc(hits[i].doc);
TokenStream tokenStream = analyzer.tokenStream("",new StringReader(doc.get("content")));
String str = highlighter.getBestFragment(tokenStream, doc.get("content"));
System.out.println(str);
}
}
}
大家可以看到对于关键词的数据已经进行高亮处理了。 “中后期,不少群组改名<B>纯粹</B>是赶潮流和恶搞。”
分享到:
相关推荐
标题"IKAnalyzer LUCENE.4.9 中文分词的高亮显示"表明我们将探讨如何使用IKAnalyzer与Lucene 4.9版本相结合,实现搜索结果的关键词高亮功能。高亮显示有助于用户快速识别和理解搜索结果中的重要信息。 IKAnalyzer的...
《Lucene分词技术与IKAnalyzer详解》 在信息技术领域,搜索引擎是不可或缺的一部分,而Lucene作为Apache软件基金会的一个开放源代码项目,是Java语言开发的全文检索引擎库,为构建高效、可扩展的信息检索应用提供了...
总的来说,Lucene.NET在中文分词和高亮显示方面的应用需要结合合适的分词器,并进行适当的配置和优化。开发者可以根据实际需求选择适合的分词器,并通过集成和调优提高系统的搜索效率和用户体验。
IKAnalyzer 2012是其一个版本,提供了完整的使用手册,包括如何配置和部署。用户需要将`IKAnalyzer2012.jar`放入项目的类路径中,同时配置`IKAnalyzer.cfg.xml`以扩展分词器的功能。此外,还需要一个停止词典(如`...
IKAnalyzer是一个基于Lucene的中文分词器,特别适合处理中文文本。它的全名是“智能狂飙分词系统”,在2012年的FF版本中,HF1代表了该版本的一个小更新,可能包括性能提升或新特性。使用IKAnalyzer可以更好地处理...
它使用了 HanLP、IK Analyzer 或者 Paoding 分词器等工具,以适应中文的语法特点,提高搜索精度。 4. **lucene-queryparser-4.7.0.jar**:这个包包含了 Lucene 的查询解析器,可以将用户的查询字符串转换为内部表示...
- **Analyzer**:负责文本的预处理,如分词、去除停用词等,这里的IKAnalyzer3.1.6GA.jar是一个中文分词器,适用于中文文本的索引和搜索。 - **Document**:表示一个要被索引的文件,可以添加多个字段(Field),...
在Lucene 5.3.1中,可能包含有IK Analyzer、SmartChineseAnalyzer或HanLP等知名的中文分词器,它们能够有效地进行中文文本的预处理,提升搜索效率和精度。 结果高亮是Lucene提供的一项功能,用于在搜索结果中突出...
- **初始化分词器**:这里使用了 `IKAnalyzer` 作为分词器,可以根据实际需求选择不同的分词器。 - **创建查询解析器**:通过 `QueryParser` 创建查询对象,并指定版本号(这里是 `Version.LUCENE_40`)以及字段名...
在这个主题中,我们将深入探讨 Lucene 的基本使用方法,包括如何集成 IK 分词器以及实现高亮显示。 ### 1. Lucene 的核心概念 - **索引(Index)**: Lucene 首先需要对文档进行索引,将文本数据转换为可搜索的结构...
此外,还可以结合IKAnalyzer、HanLP等第三方分词库增强中文处理能力。 ### 5. 扩展与优化 - **Memory Management**: 使用Lucene的段合并策略控制内存使用,避免一次性加载大量索引数据。 - **多线程索引和搜索**:...
IKAnalyzer和Lucene-Analyzers结合使用,确保了中文文本的有效处理和索引。 4. **搜索算法**: Lucene支持多种搜索算法,如布尔搜索、短语搜索、模糊搜索等,可以根据需求灵活配置。通过这些算法,用户可以构造复杂...
在中文词分器方面,Lucene本身并不支持中文分词,但可以通过集成第三方分词库如HanLP、IK Analyzer或jieba分词来处理中文文本。这些分词器将中文句子切分成一个个有意义的词语,便于Lucene进行索引和搜索。例如,...
5. **高亮显示关键字**:为了高亮显示搜索结果中的关键字,可以使用Highlighter组件。首先,需要将搜索结果的文档内容分词,然后使用QueryScorer计算每个词项的相关性得分。最后,使用Formatter类将得分高的关键字用...
4. 断词分析:对于中文等非英文语言,需配合合适的分词器,如ikanalyzer,进行断词处理。 5. 排序与过滤:除了默认的按评分排序外,还可以自定义排序策略。Filter类可用于在查询阶段过滤出满足特定条件的文档。 四...
高亮显示需要使用Highlighter和QueryScorer,结合Analyzer来确定哪些词是高亮的关键词。 五、GJSearchDemo示例 在提供的GJSearchDemo.java文件中,可能包含了一个简单的Lucene应用示例,展示了如何使用Lucene进行...
Lucene 3.5 包含了对中文的支持,可能包含了如`HanLP`、`IK Analyzer`或`SmartChineseAnalyzer`等中文分词器。这些分词器能够将中文文本拆分成可索引的基本单元,从而提高搜索的准确性。例如,`SmartChineseAnalyzer...
- **分析器**:用于将输入的文本分词,如英文的 StandardAnalyzer 和中文的IKAnalyzer。 2. **索引的创建** - **创建索引目录**:使用 FSDirectory 类来创建或打开磁盘上的索引目录。 - **创建文档**:Document ...
对于中文,可以选择IKAnalyzer或其他针对中文优化的Analyzer。 2. **创建Directory**: Directory是Lucene中存储索引的地方,它可以是内存中的RAMDirectory,也可以是磁盘上的FSDirectory。 3. **创建IndexWriter**...