//采用正向最大匹配的中文分词算法,相当于分词粒度等于0
MMAnalyzer analyzer = new MMAnalyzer();
//参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来
MMAnalyzer analyzer = new MMAnalyzer(int wordLength);
//字符串切分,常用于客户的关键字输入
analyzer.segment(String text, String separator);
词典维护API(静态方法):
//增加一个新词典,采用每行一个词的读取方式(注意:多线程状态下此时的分词效果将不可预料)
MMAnalyzer.addDictionary(Reader reader);
//增加一个新词
MMAnalyzer.addWord(String newWord);
//删除词库中的全部词语(注意:非常危险的操作,在没有加载新的词库前所有的分词都将失效)
MMAnalyzer.clear();
//词库中是否包含该词
MMAnalyzer.contains(String word);
//从词库中移除该词
MMAnalyzer.removeWord(String word);
//当前词库中包含的词语总数
MMAnalyzer.size();
字符串切分
package demo.analysis;
import java.io.IOException;
import jeasy.analysis.MMAnalyzer;
public class Segment
{
public static void main(String[] args)
{
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
+ "20000余人受伤,近20万人无家可归。";
MMAnalyzer analyzer = new MMAnalyzer();
try
{
System.out.println(analyzer.segment(text, " | "));
}
catch (IOException e)
{
e.printStackTrace();
}
}
}
生成效果:
据 | 路透社 | 报道 | 印度尼西亚 | 社会 | 事务 | 部 | 官员 | 星期二 | 29日 | 表示 | 日惹 | 市 | 附近 | 当地时间 | 27日 | 晨 | 5时 | 53分 | 发生 | 里氏 | 6.2级 | 地震 | 已经 | 造成 | 至少 | 5427人 | 死亡 | 20000 | 余人 | 受伤 | 近 | 20万人 | 无家可归 |
Lucene搜索
package demo.analysis;
import jeasy.analysis.MMAnalyzer;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.queryParser.QueryParser;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.RAMDirectory;
public class Segment
{
public static void main(String[] args)
{
String fieldName = "text";
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
+ "20000余人受伤,近20万人无家可归。"; //检索内容
//采用正向最大匹配的中文分词算法
Analyzer analyzer = new MMAnalyzer();
Directory directory = new RAMDirectory();
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);
try
{
IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
iwriter.setMaxFieldLength(25000);
Document doc = new Document();
doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED));
iwriter.addDocument(doc);
iwriter.close();
IndexSearcher isearcher = new IndexSearcher(directory);
QueryParser parser = new QueryParser(fieldName, analyzer);
Query query = parser.parse("印度尼西亚 6.2级地震");//检索词
Hits hits = isearcher.search(query);
System.out.println("命中:" + hits.length());
for (int i = 0; i < hits.length(); i++)
{
Document hitDoc = hits.doc(i);
System.out.println("内容:" + hitDoc.get(fieldName));
}
isearcher.close();
directory.close();
}
catch (Exception e)
{
e.printStackTrace();
}
}
}
生成效果:
命中:1
内容:据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,20000余人受伤,近20万人无家可归。
搜索词加亮
package demo.analysis;
import jeasy.analysis.MMAnalyzer;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.TermPositionVector;
import org.apache.lucene.queryParser.QueryParser;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.highlight.Highlighter;
import org.apache.lucene.search.highlight.QueryScorer;
import org.apache.lucene.search.highlight.TokenSources;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.RAMDirectory;
public class Segment
{
public static void main(String[] args)
{
String fieldName = "text";
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
+ "20000余人受伤,近20万人无家可归。"; //检索内容
//采用正向最大匹配的中文分词算法
Analyzer analyzer = new MMAnalyzer();
Directory directory = new RAMDirectory();
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);
try
{
IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
iwriter.setMaxFieldLength(25000);
Document doc = new Document();
doc.add(new Field(fieldName, text, Field.Store.YES,
Field.Index.TOKENIZED,
Field.TermVector.WITH_POSITIONS_OFFSETS));
iwriter.addDocument(doc);
iwriter.close();
IndexSearcher isearcher = new IndexSearcher(directory);
QueryParser parser = new QueryParser(fieldName, analyzer);
Query query = parser.parse("印度尼西亚 6.2级地震");//检索词
Hits hits = isearcher.search(query);
System.out.println("命中:" + hits.length());
Highlighter highlighter = new Highlighter(new QueryScorer(query));
for (int i = 0; i < hits.length(); i++)
{
text = hits.doc(i).get(fieldName);
TermPositionVector tpv = (TermPositionVector) IndexReader.open(
directory).getTermFreqVector(hits.id(i), fieldName);
TokenStream tokenStream = TokenSources.getTokenStream(tpv);
String result = highlighter.getBestFragments(tokenStream, text, 3, "...");
System.out.println("内容:" + result);
}
isearcher.close();
directory.close();
}
catch (Exception e)
{
e.printStackTrace();
}
}
}
生成效果:
命中:1
内容:据路透社报道,<B>印度尼西亚</B>社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生的里氏<B>6.2级</B><B>地震</B>已经造成至少5427人死亡,20000余人受伤,近20万人无家可归
v
分享到:
相关推荐
《深入理解Lucene中文分词组件JE-Analysis 1.5.1——天狼解析》 在信息检索和自然语言处理领域,Lucene是一个广泛使用的全文检索库,它提供了强大的索引和搜索功能。然而,Lucene本身并不支持中文分词,因此我们...
je-analysis-1.5.1.jar 中科院的分词器,用的人很多,需要Lucene1.9-2.4版本才能使用
在您提供的资源中,"je-analysis-1.5.1.jar"、"lucene-core-3.5.0.jar" 和 "IKAnalyzer2012.zip" 是三个关键组件,它们在文本分词过程中扮演着重要角色。 首先,"je-analysis-1.5.1.jar" 是一个Java库,很可能是一...
"中文分词器"在这里指的可能是 "je-analysis-1.5.1.jar",这是一个专门针对中文的分析工具,用于将中文文本分解成有意义的词汇(词)。Je-Analysis 可能是基于 Java 实现的,适用于 Lucene 和 Solr 等搜索引擎,它...
`je-analysis-1.5.1` 是该分词器的一个版本,它为Lucene提供了一套专门针对中文的分词规则和算法,能够有效地将中文文本切分成有意义的词语,这是构建中文搜索引擎时必不可少的步骤。极易分词器的特点可能是易于使用...
"je-analysis-1.5.1.jar" 文件是Java分词器(Jieba Analysis)的一个版本,它针对中文文本特别设计。Jieba Analysis提供了分词、词性标注等功能,对于中文搜索引擎来说至关重要。它能够准确地将中文句子切分成有意义...
其次,`je-analysis-1.5.1`可能是一个特定的中文分词库,用于处理中文文本。在中国,由于汉字的复杂性和多义性,分词是文本处理的一大挑战。JE Analysis(可能是Jieba的早期版本)提供了一种高效的分词算法,能够将...