`

MMAnalyzer极易中文分词组件

阅读更多
支持英文、数字、中文(简体)混合分词 
常用的数量和人名的匹配 
超过22万词的词库整理 
实现正向最大匹配算法 

//采用正向最大匹配的中文分词算法,相当于分词粒度等于0 
MMAnalyzer analyzer = new MMAnalyzer(); 

//参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来 
MMAnalyzer analyzer = new MMAnalyzer(2); 


//增加一个新词典,采用每行一个词的读取方式 
MMAnalyzer.addDictionary(reader); 

//增加一个新词 
MMAnalyzer.addWord(newWord); 


 

//删除词库中的全部词语(注意:非常危险的操作,在没有加载新的词库前所有的分词都将失效)
MMAnalyzer.clear();

//词库中是否包含该词
MMAnalyzer.contains(String word);

//从词库中移除该词
MMAnalyzer.removeWord(String word);

//当前词库中包含的词语总数
MMAnalyzer.size();


view plaincopy to clipboardprint?
package demo.analysis;    
  
import java.io.IOException;    
  
import jeasy.analysis.MMAnalyzer;    
  
public class Segment    
{    
  
public static void main(String[] args)    
{    
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"    
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"    
+ "20000余人受伤,近20万人无家可归。";    
  
MMAnalyzer analyzer = new MMAnalyzer();    
try    
{    
System.out.println(analyzer.segment(text, " | "));    
}    
catch (IOException e)    
{    
e.printStackTrace();    
}    
}    
}   
package demo.analysis; 

import java.io.IOException; 

import jeasy.analysis.MMAnalyzer; 

public class Segment 
{ 

public static void main(String[] args) 
{ 
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示," 
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡," 
+ "20000余人受伤,近20万人无家可归。"; 

MMAnalyzer analyzer = new MMAnalyzer(); 
try 
{ 
System.out.println(analyzer.segment(text, " | ")); 
} 
catch (IOException e) 
{ 
e.printStackTrace(); 
} 
} 
}  

生成效果: 

据 | 路透社 | 报道 | 印度尼西亚 | 社会 | 事务 | 部 | 官员 | 星期二 | 29日 | 表示 | 日惹 | 市 | 附近 | 当地时间 | 27日 

| 晨 | 5时 | 53分 | 发生 | 里氏 | 6.2级 | 地震 | 已经 | 造成 | 至少 | 5427人 | 死亡 | 20000 | 余人 | 受伤 | 近 | 20万人 | 无家可归 | 


view plaincopy to clipboardprint?
package demo.analysis;    
  
import jeasy.analysis.MMAnalyzer;    
  
import org.apache.lucene.analysis.Analyzer;    
import org.apache.lucene.document.Document;    
import org.apache.lucene.document.Field;    
import org.apache.lucene.index.IndexWriter;    
import org.apache.lucene.queryParser.QueryParser;    
import org.apache.lucene.search.Hits;    
import org.apache.lucene.search.IndexSearcher;    
import org.apache.lucene.search.Query;    
import org.apache.lucene.store.Directory;    
import org.apache.lucene.store.RAMDirectory;    
  
public class Segment    
{    
  
public static void main(String[] args)    
{    
String fieldName = "text";    
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"    
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"    
+ "20000余人受伤,近20万人无家可归。"; //检索内容    
  
//采用正向最大匹配的中文分词算法    
Analyzer analyzer = new MMAnalyzer();    
  
Directory directory = new RAMDirectory();    
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);    
  
try    
{    
IndexWriter iwriter = new IndexWriter(directory, analyzer, true);    
iwriter.setMaxFieldLength(25000);    
Document doc = new Document();    
doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED));    
iwriter.addDocument(doc);    
iwriter.close();    
  
IndexSearcher isearcher = new IndexSearcher(directory);    
QueryParser parser = new QueryParser(fieldName, analyzer);    
Query query = parser.parse("印度尼西亚 6.2级地震");//检索词    
Hits hits = isearcher.search(query);    
System.out.println("命中:" + hits.length());    
  
for (int i = 0; i < hits.length(); i++)    
{    
Document hitDoc = hits.doc(i);    
System.out.println("内容:" + hitDoc.get(fieldName));    
}    
  
isearcher.close();    
directory.close();    
}    
catch (Exception e)    
{    
e.printStackTrace();    
}    
}    
  
}   
package demo.analysis; 

import jeasy.analysis.MMAnalyzer; 

import org.apache.lucene.analysis.Analyzer; 
import org.apache.lucene.document.Document; 
import org.apache.lucene.document.Field; 
import org.apache.lucene.index.IndexWriter; 
import org.apache.lucene.queryParser.QueryParser; 
import org.apache.lucene.search.Hits; 
import org.apache.lucene.search.IndexSearcher; 
import org.apache.lucene.search.Query; 
import org.apache.lucene.store.Directory; 
import org.apache.lucene.store.RAMDirectory; 

public class Segment 
{ 

public static void main(String[] args) 
{ 
String fieldName = "text"; 
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示," 
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡," 
+ "20000余人受伤,近20万人无家可归。"; //检索内容 

//采用正向最大匹配的中文分词算法 
Analyzer analyzer = new MMAnalyzer(); 

Directory directory = new RAMDirectory(); 
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true); 

try 
{ 
IndexWriter iwriter = new IndexWriter(directory, analyzer, true); 
iwriter.setMaxFieldLength(25000); 
Document doc = new Document(); 
doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED)); 
iwriter.addDocument(doc); 
iwriter.close(); 

IndexSearcher isearcher = new IndexSearcher(directory); 
QueryParser parser = new QueryParser(fieldName, analyzer); 
Query query = parser.parse("印度尼西亚 6.2级地震");//检索词 
Hits hits = isearcher.search(query); 
System.out.println("命中:" + hits.length()); 

for (int i = 0; i < hits.length(); i++) 
{ 
Document hitDoc = hits.doc(i); 
System.out.println("内容:" + hitDoc.get(fieldName)); 
} 

isearcher.close(); 
directory.close(); 
} 
catch (Exception e) 
{ 
e.printStackTrace(); 
} 
} 

}  

生成效果: 

命中:1 
内容:据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生 

的里氏6.2级地震已经造成至少5427人死亡,20000余人受伤,近20万人无家可归。 


view plaincopy to clipboardprint?
package demo.analysis;    
  
import jeasy.analysis.MMAnalyzer;    
  
import org.apache.lucene.analysis.Analyzer;    
import org.apache.lucene.analysis.TokenStream;    
import org.apache.lucene.document.Document;    
import org.apache.lucene.document.Field;    
import org.apache.lucene.index.IndexReader;    
import org.apache.lucene.index.IndexWriter;    
import org.apache.lucene.index.TermPositionVector;    
import org.apache.lucene.queryParser.QueryParser;    
import org.apache.lucene.search.Hits;    
import org.apache.lucene.search.IndexSearcher;    
import org.apache.lucene.search.Query;    
import org.apache.lucene.search.highlight.Highlighter;    
import org.apache.lucene.search.highlight.QueryScorer;    
import org.apache.lucene.search.highlight.TokenSources;    
import org.apache.lucene.store.Directory;    
import org.apache.lucene.store.RAMDirectory;    
  
public class Segment    
{    
  
public static void main(String[] args)    
{    
String fieldName = "text";    
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"    
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"    
+ "20000余人受伤,近20万人无家可归。"; //检索内容    
  
//采用正向最大匹配的中文分词算法    
Analyzer analyzer = new MMAnalyzer();    
  
Directory directory = new RAMDirectory();    
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);    
  
try    
{    
IndexWriter iwriter = new IndexWriter(directory, analyzer, true);    
iwriter.setMaxFieldLength(25000);    
Document doc = new Document();    
doc.add(new Field(fieldName, text, Field.Store.YES,    
Field.Index.TOKENIZED,    
Field.TermVector.WITH_POSITIONS_OFFSETS));    
iwriter.addDocument(doc);    
iwriter.close();    
  
IndexSearcher isearcher = new IndexSearcher(directory);    
QueryParser parser = new QueryParser(fieldName, analyzer);    
Query query = parser.parse("印度尼西亚 6.2级地震");//检索词    
Hits hits = isearcher.search(query);    
System.out.println("命中:" + hits.length());    
  
Highlighter highlighter = new Highlighter(new QueryScorer(query));    
for (int i = 0; i < hits.length(); i++)    
{    
text = hits.doc(i).get(fieldName);    
TermPositionVector tpv = (TermPositionVector) IndexReader.open(    
directory).getTermFreqVector(hits.id(i), fieldName);    
TokenStream tokenStream = TokenSources.getTokenStream(tpv);    
String result = highlighter.getBestFragments(tokenStream, text, 3, "...");    
System.out.println("内容:" + result);    
}    
  
isearcher.close();    
directory.close();    
}    
catch (Exception e)    
{    
e.printStackTrace();    
}    
}    
  
}   
package demo.analysis; 

import jeasy.analysis.MMAnalyzer; 

import org.apache.lucene.analysis.Analyzer; 
import org.apache.lucene.analysis.TokenStream; 
import org.apache.lucene.document.Document; 
import org.apache.lucene.document.Field; 
import org.apache.lucene.index.IndexReader; 
import org.apache.lucene.index.IndexWriter; 
import org.apache.lucene.index.TermPositionVector; 
import org.apache.lucene.queryParser.QueryParser; 
import org.apache.lucene.search.Hits; 
import org.apache.lucene.search.IndexSearcher; 
import org.apache.lucene.search.Query; 
import org.apache.lucene.search.highlight.Highlighter; 
import org.apache.lucene.search.highlight.QueryScorer; 
import org.apache.lucene.search.highlight.TokenSources; 
import org.apache.lucene.store.Directory; 
import org.apache.lucene.store.RAMDirectory; 

public class Segment 
{ 

public static void main(String[] args) 
{ 
String fieldName = "text"; 
String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示," 
+ "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡," 
+ "20000余人受伤,近20万人无家可归。"; //检索内容 

//采用正向最大匹配的中文分词算法 
Analyzer analyzer = new MMAnalyzer(); 

Directory directory = new RAMDirectory(); 
//Directory directory = FSDirectory.getDirectory("/tmp/testindex", true); 

try 
{ 
IndexWriter iwriter = new IndexWriter(directory, analyzer, true); 
iwriter.setMaxFieldLength(25000); 
Document doc = new Document(); 
doc.add(new Field(fieldName, text, Field.Store.YES, 
Field.Index.TOKENIZED, 
Field.TermVector.WITH_POSITIONS_OFFSETS)); 
iwriter.addDocument(doc); 
iwriter.close(); 

IndexSearcher isearcher = new IndexSearcher(directory); 
QueryParser parser = new QueryParser(fieldName, analyzer); 
Query query = parser.parse("印度尼西亚 6.2级地震");//检索词 
Hits hits = isearcher.search(query); 
System.out.println("命中:" + hits.length()); 

Highlighter highlighter = new Highlighter(new QueryScorer(query)); 
for (int i = 0; i < hits.length(); i++) 
{ 
text = hits.doc(i).get(fieldName); 
TermPositionVector tpv = (TermPositionVector) IndexReader.open( 
directory).getTermFreqVector(hits.id(i), fieldName); 
TokenStream tokenStream = TokenSources.getTokenStream(tpv); 
String result = highlighter.getBestFragments(tokenStream, text, 3, "..."); 
System.out.println("内容:" + result); 
} 

isearcher.close(); 
directory.close(); 
} 
catch (Exception e) 
{ 
e.printStackTrace(); 
} 
} 

} 
 
生成效果: 

命中:1 
内容:据路透社报道,<B>印度尼西亚</B>社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生的 

里氏<B>6.2级</B><B>地震</B>已经造成至少5427人死亡,20000余人受伤,近20万人无家可归



本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/xiaoping8411/archive/2010/03/30/5435134.aspx
分享到:
评论

相关推荐

    MMAnalyzer 分词jar包(lucene-core-2.4.1.jar je-analysis-1.5.3.jar)

    标题提到的"MMAnalyzer 分词jar包"是基于Lucene的一个中文分词组件,名为Jeasy Analysis,具体版本为1.5.3。Jeasy Analysis是为了简化中文分词而设计的,它主要由"je-analysis-1.5.3.jar"这个文件组成。这个分词器在...

    MMAnalyzer分词jar包

    MMAnalyzer是一款基于Java的中文分词工具,它在处理中文文本时起到了关键作用。这款工具设计用于高效且准确地将连续的汉字序列切分成具有独立意义的词语,这是自然语言处理(NLP)任务的基础,比如信息检索、文本...

    Lucene中文分词组件 JE-Analysis 1.5.1

    //采用正向最大匹配的中文分词算法,相当于分词粒度等于0 MMAnalyzer analyzer = new MMAnalyzer(); //参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来 MMAnalyzer analyzer = new ...

    MMAnalyzer 相关jar包,java中文分词

    在IT行业中,中文分词是自然语言处理(NLP)中的关键步骤,它涉及到将连续的汉字序列分割成有意义的词语单元,这对于信息检索、文本分析、机器翻译等多个领域至关重要。"MMAnalyzer"是一个专门针对Java开发的中文...

    Lucene中文分词组件 JE-Analysis 1.4.0

    //采用正向最大匹配的中文分词算法,相当于分词粒度等于0 MMAnalyzer analyzer = new MMAnalyzer(); //参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来 MMAnalyzer analyzer = new MMAnalyzer...

    MMAnalyzer涉及的jar包 (2).zip

    MMAnalyzer的主要功能是进行中文分词,即把连续的汉字序列切分成具有语义的独立单元,这是中文信息处理的基础步骤。其设计理念是兼顾准确性和效率,使得在处理大量文本数据时仍能保持较高的性能。 在提供的压缩包...

    MMAnalyzer 分词必导入jar包(lucene-core-2.4.1.jar je-analysis-1.5.3.jar)

    `lucene-core-2.4.1.jar`是Lucene的核心库,包含了Lucene的基础组件和API,如文档处理、索引操作、查询构造等,这些是MMAnalyzer进行分词工作所必需的。 在实际项目中,正确导入这两个JAR包是确保MMAnalyzer正常...

    mmanalyzer

    在处理中文文本时,mmanalyzer可能会内置了丰富的词典,覆盖了常见的汉字、词语以及专业术语,以确保在分词过程中能尽可能地保留语义完整性。 **导入到Java Library**:在Java项目中使用mmanalyzer,用户只需将...

    TFIDFjava代码

    这里使用了`MMAnalyzer`类进行中文分词,`MMAnalyzer`是jieba分词库中的一个实现,可以有效地对中文文本进行切分。分词结果存储在一个字符串数组中。 #### 2.4 计算TF-IDF 完成了文档内容的读取和分词后,接下来...

    贝叶斯算法(文本分类算法)java源码借鉴.pdf

    `ChineseSpliter` 类使用了 `jeasy.analysis.MMAnalyzer` 进行中文分词。`MMAnalyzer` 是一个开源的中文分词库,它可以将一段中文文本拆分成单独的词语。例如,输入文本 "我喜欢编程",分词后可能会得到 "我"、"喜欢...

    lucene-core-2.9.4.jar.zip

    MMAnalyzer采用的是基于词语的分词方法,它在处理中文文本时,会将句子切分成一个个独立的词语,这对于构建有效的索引和进行精确的查询匹配至关重要。然而,仅仅有MMAnalyzer是不够的,它需要依赖于Lucene的核心库来...

    基于正向最大匹配和朴素贝叶斯算法的文本分类源码

    "MmAnalyzer的用法"可能是介绍如何使用这个特定的分词工具的文档,内容可能包括如何初始化、如何进行分词、如何处理未登录词等。 总的来说,这个源码包提供了从文本预处理(分词)到分类(朴素贝叶斯)的一整套流程...

    TF*IDFjava实现

    `MMAnalyzer` 可能是第三方库中用于中文分词的工具类。这里通过调用 `analyzer.segment()` 方法将文档内容分词,返回结果是一个字符串数组。 ##### 3.3 计算 TF-IDF 值 根据上述理论基础,可以实现 TF-IDF 的计算...

    lucene-suggest-4.9.0.jar

    lucene-suggest-4.9.0.jarl

    lucene-初级学习资料.ppt

    - **分析器(Analyzer)**:分析器是 Lucene 处理文本的关键组件,它负责将文本分割成单词(分词),去除停用词,进行词形还原等预处理工作。不同的语言和应用场景可能需要使用不同的分析器,如 `StandardAnalyzer` ...

    lucene 分组统计

    这里定义了一个自定义的分析器 `MMAnalyzer`,它可以用来处理中文分词。 ##### 2. 创建索引 ```java IndexWriter writer = new IndexWriter(directory, newIndexWriterConfig(perFieldAnalyzer).setOpenMode(Open...

    luncene.rar

    网上MMAnalyzer资源太少了,大多数初学者都会少导入JAR包,并且网上只有 je-analysis-MMAnalyzer的例子,而没有依赖包lucene-core-2.4.1.jar je-analysis-1.5.3.jar以及 luncene-heghlighter-2.4.1.jar

Global site tag (gtag.js) - Google Analytics