`
phantom
  • 浏览: 163139 次
社区版块
存档分类
最新评论

转 Lucene中文分词组件 JE-Analysis 1.5.1 天狼

阅读更多

2006-05-29 17:40     主题:  【发布】Lucene中文分词组件 JE-Analysis 1.5.1  
天狼
 


注册于: 2006-05-28 00:23
帖子总数: 103
离线
 本站申明: 该组件免费安装使用传播,无限制商业应用,但暂不开源,也不提供任何保证

分词效率: 每秒30万字(测试环境迅驰1.6,第一次分词需要1-2秒加载词典)

运行环境: Lucene 2.0

特别推荐: 优秀的软件项目管理系统,让项目走出质量管理的泥潭


下载   文件名 je-analysis-1.5.1.jar
 描述 
 大小 871 Kbytes 
 下载次数:  397 time(s)

 
  
 
 
2006-07-04 19:49     主题:  变更历史  
天狼
 


注册于: 2006-05-28 00:23
帖子总数: 103
离线
 1.5.1 —— 2006-01-22
修正细粒度分词错误的问题

1.5.0 —— 2007-01-18
全面支持Lucene 2.0
增强了词典维护的API
增加了商品编码的匹配
增加了Mail地址的匹配
实现了词尾消歧算法第二层的过滤
整理优化了词库

1.4.0 —— 2006-08-21
增加词典的动态扩展能力

1.3.3 —— 2006-07-23
修正无法多次增加词典的问题

1.3.2 —— 2006-07-03
修正细粒度分词错误的问题

1.3.1 —— 2006-06-23
修正在某些情况下分词遗漏的问题

1.3 —— 2006-06-22
实现了词尾消歧算法第一层的过滤
增加日期时间的匹配

1.2.2 —— 2006-06-13
完善了中英文噪声词典

1.2.1 —— 2006-06-10
修正中文数字成语无法识别的问题

1.2 —— 2006-06-08
增加中文数字的匹配(如:二零零六)
数量词采用“n”作为数字通配符
优化词典结构以便修改调整

1.1 —— 2006-06-06
增加扩展词典的静态读取方法

1.0.1 —— 2006-06-02
修正无法识别生僻字的问题

1.0 —— 2006-05-29
支持英文、数字、中文(简体)混合分词
常用的数量和人名的匹配
超过22万词的词库整理
实现正向最大匹配算法
支持分词粒度控制
 
  
 
 
2006-08-27 22:44     主题:  系统API  
天狼
 


注册于: 2006-05-28 00:23
帖子总数: 103
离线
 Code:
 //采用正向最大匹配的中文分词算法,相当于分词粒度等于0
 MMAnalyzer analyzer = new MMAnalyzer();
 
 //参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来
 MMAnalyzer analyzer = new MMAnalyzer(int wordLength);
 
 //字符串切分,常用于客户的关键字输入
 analyzer.segment(String text, String separator);
 
 
 词典维护API(静态方法):
 
 //增加一个新词典,采用每行一个词的读取方式(注意:多线程状态下此时的分词效果将不可预料)
 MMAnalyzer.addDictionary(Reader reader);
 
 //增加一个新词
 MMAnalyzer.addWord(String newWord);
 
 //删除词库中的全部词语(注意:非常危险的操作,在没有加载新的词库前所有的分词都将失效)
 MMAnalyzer.clear();
 
 //词库中是否包含该词
 MMAnalyzer.contains(String word);
 
 //从词库中移除该词
 MMAnalyzer.removeWord(String word);
 
 //当前词库中包含的词语总数
 MMAnalyzer.size();
 

 
  
 
 
2006-08-27 22:45     主题:  字符串切分  
天狼
 


注册于: 2006-05-28 00:23
帖子总数: 103
离线
 Code:
 package demo.analysis;
 
 import java.io.IOException;
 
 import jeasy.analysis.MMAnalyzer;
 
 public class Segment
 {
  
     public static void main(String[] args)
     {
         String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
          + "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
          + "20000余人受伤,近20万人无家可归。";
        
         MMAnalyzer analyzer = new MMAnalyzer();
         try
         {
                 System.out.println(analyzer.segment(text, " | "));
         }
         catch (IOException e)
         {
                 e.printStackTrace();
         }
     }
 }
 

生成效果:

据 | 路透社 | 报道 | 印度尼西亚 | 社会 | 事务 | 部 | 官员 | 星期二 | 29日 | 表示 | 日惹 | 市 | 附近 | 当地时间 | 27日 | 晨 | 5时 | 53分 | 发生 | 里氏 | 6.2级 | 地震 | 已经 | 造成 | 至少 | 5427人 | 死亡 | 20000 | 余人 | 受伤 | 近 | 20万人 | 无家可归 |
 
  
 
 
2006-08-27 22:47     主题:  Lucene搜索  
天狼
 


注册于: 2006-05-28 00:23
帖子总数: 103
离线
 Code:
 package demo.analysis;
 
 import jeasy.analysis.MMAnalyzer;
 
 import org.apache.lucene.analysis.Analyzer;
 import org.apache.lucene.document.Document;
 import org.apache.lucene.document.Field;
 import org.apache.lucene.index.IndexWriter;
 import org.apache.lucene.queryParser.QueryParser;
 import org.apache.lucene.search.Hits;
 import org.apache.lucene.search.IndexSearcher;
 import org.apache.lucene.search.Query;
 import org.apache.lucene.store.Directory;
 import org.apache.lucene.store.RAMDirectory;
 
 public class Segment
 {
    
     public static void main(String[] args)
     {
         String fieldName = "text";
         String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
             + "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
             + "20000余人受伤,近20万人无家可归。"; //检索内容
 
         //采用正向最大匹配的中文分词算法
         Analyzer analyzer = new MMAnalyzer();
 
         Directory directory = new RAMDirectory();
         //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);
 
         try
          {
             IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
             iwriter.setMaxFieldLength(25000);
             Document doc = new Document();
             doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED));
             iwriter.addDocument(doc);
             iwriter.close();
            
             IndexSearcher isearcher = new IndexSearcher(directory);
             QueryParser parser = new QueryParser(fieldName, analyzer);
             Query query = parser.parse("印度尼西亚 6.2级地震");//检索词
             Hits hits = isearcher.search(query);
             System.out.println("命中:" + hits.length());
 
             for (int i = 0; i < hits.length(); i++)
             {
                 Document hitDoc = hits.doc(i);
                 System.out.println("内容:" + hitDoc.get(fieldName));
             }
 
             isearcher.close();
             directory.close();
         }
         catch (Exception e)
         {
             e.printStackTrace();
         }  
     }
    
 }
 

生成效果:

命中:1
内容:据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,20000余人受伤,近20万人无家可归。
 
  
 
 
2006-08-27 22:48     主题:  搜索词加亮  
天狼
 


注册于: 2006-05-28 00:23
帖子总数: 103
离线
 Code:
 package demo.analysis;
 
 import jeasy.analysis.MMAnalyzer;
 
 import org.apache.lucene.analysis.Analyzer;
 import org.apache.lucene.analysis.TokenStream;
 import org.apache.lucene.document.Document;
 import org.apache.lucene.document.Field;
 import org.apache.lucene.index.IndexReader;
 import org.apache.lucene.index.IndexWriter;
 import org.apache.lucene.index.TermPositionVector;
 import org.apache.lucene.queryParser.QueryParser;
 import org.apache.lucene.search.Hits;
 import org.apache.lucene.search.IndexSearcher;
 import org.apache.lucene.search.Query;
 import org.apache.lucene.search.highlight.Highlighter;
 import org.apache.lucene.search.highlight.QueryScorer;
 import org.apache.lucene.search.highlight.TokenSources;
 import org.apache.lucene.store.Directory;
 import org.apache.lucene.store.RAMDirectory;
 
 public class Segment
 {
 
     public static void main(String[] args)
     {
         String fieldName = "text";
         String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
             + "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
             + "20000余人受伤,近20万人无家可归。"; //检索内容
 
         //采用正向最大匹配的中文分词算法
         Analyzer analyzer = new MMAnalyzer();
 
         Directory directory = new RAMDirectory();
         //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);
 
         try
         {
             IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
             iwriter.setMaxFieldLength(25000);
             Document doc = new Document();
             doc.add(new Field(fieldName, text, Field.Store.YES,
                     Field.Index.TOKENIZED,
                     Field.TermVector.WITH_POSITIONS_OFFSETS));
             iwriter.addDocument(doc);
             iwriter.close();
 
             IndexSearcher isearcher = new IndexSearcher(directory);
             QueryParser parser = new QueryParser(fieldName, analyzer);
             Query query = parser.parse("印度尼西亚 6.2级地震");//检索词
             Hits hits = isearcher.search(query);
             System.out.println("命中:" + hits.length());
 
             Highlighter highlighter = new Highlighter(new QueryScorer(query));
             for (int i = 0; i < hits.length(); i++)
             {
                 text = hits.doc(i).get(fieldName);
                 TermPositionVector tpv = (TermPositionVector) IndexReader.open(
                     directory).getTermFreqVector(hits.id(i), fieldName);
                 TokenStream tokenStream = TokenSources.getTokenStream(tpv);
                 String result = highlighter.getBestFragments(tokenStream, text, 3, "...");
                 System.out.println("内容:" + result);
             }
 
             isearcher.close();
             directory.close();
         }
         catch (Exception e)
         {
             e.printStackTrace();
         }
     }
 
 }
 

生成效果:

命中:1
内容:据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,20000余人受伤,近20万人无家可归
 
  
 

分享到:
评论
3 楼 px_dn 2013-10-06  
灰常感谢!!!!
2 楼 infinite 2011-08-15  
转了你就不能注明一下出处?
1 楼 czwangelo 2008-04-15  
]

相关推荐

    Lucene中文分词组件 JE-Analysis 1.5.1

    //采用正向最大匹配的中文分词算法,相当于分词粒度等于0 MMAnalyzer analyzer = new MMAnalyzer(); //参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来 MMAnalyzer analyzer = new ...

    je-analysis-1.5.3、lucene-core-2.4.1分词组件

    本文将深入探讨"je-analysis-1.5.3"和"lucene-core-2.4.1"这两个分词组件,以及它们在相关场景中的应用。 首先,让我们了解什么是分词。分词,即词语切分,是自然语言处理(NLP)中的基本任务之一,它的目标是将...

    Lucene中文分词组件 JE-Analysis 1.4.0

    该组件免费安装使用传播,无限制商业应用,但暂不开源,也不提供任何保证 分词效率: 第一次分词需要1-2秒(读取词典),之后速度基本与Lucene自带分词持平 运行环境: Lucene 1.9+ 内存消耗: 30M+ ...

    je-analysis-1.5.1.jar

    je-analysis-1.5.1.jar 中科院的分词器,用的人很多,需要Lucene1.9-2.4版本才能使用

    分词器je-analysis-1.5.3.jar

    分词器je-analysis的核心功能在于对中文文本进行精确的分词。中文不同于英文,单词之间没有明显的分隔符,因此需要通过特定算法识别出词语边界。je-analysis采用了基于词典的分词方法,结合正向最大匹配法(Forward ...

    lucene和je-analysis-1.5.3

    Lucene和JE-Analysis-1.5.3就是这样的两个关键组件,它们在Java环境中为开发者提供了强大的文本搜索能力。本文将详细探讨这两个工具及其在实际应用中的作用。 首先,Lucene是Apache软件基金会的一个开源项目,它是...

    je-analysis-1.5.1.jar+lucene-core-3.5.0.jar+IKAnalyzer2012.zip

    在您提供的资源中,"je-analysis-1.5.1.jar"、"lucene-core-3.5.0.jar" 和 "IKAnalyzer2012.zip" 是三个关键组件,它们在文本分词过程中扮演着重要角色。 首先,"je-analysis-1.5.1.jar" 是一个Java库,很可能是一...

    lucene je-analysis jar包

    JE-Analysis是针对Java环境的中文分词工具,它是基于Lucene进行扩展和优化的,特别适合处理中文文本。它提供了丰富的分词策略,如基于词典的精确分词、基于统计的分词等,可以有效地处理中文的复杂性,如词语的歧义...

    je-analysis-1.5.3

    《深入解析je-analysis-1.5.3:Java Lucene中的中文全文检索与分词组件》 在现代信息处理领域,全文检索与精准的文本分析是至关重要的技术。Je-analysis,作为一款基于Java的开源全文检索框架Lucene的中文分词组件...

    MMAnalyzer 分词jar包(lucene-core-2.4.1.jar je-analysis-1.5.3.jar)

    标题提到的"MMAnalyzer 分词jar包"是基于Lucene的一个中文分词组件,名为Jeasy Analysis,具体版本为1.5.3。Jeasy Analysis是为了简化中文分词而设计的,它主要由"je-analysis-1.5.3.jar"这个文件组成。这个分词器在...

    je-analysis-1.5.3;lucene-core-2.9.2

    "je-analysis-1.5.3"可能会负责对输入文本进行预处理,如分词,然后"lucene-core-2.9.2"则会利用这些预处理结果建立索引,进行高效的查询和匹配。这样的系统常见于内容管理系统、搜索引擎、数据分析平台等。 在实际...

    MMAnalyzer 分词必导入jar包(lucene-core-2.4.1.jar je-analysis-1.5.3.jar)

    `lucene-core-2.4.1.jar`是Lucene的核心库,包含了Lucene的基础组件和API,如文档处理、索引操作、查询构造等,这些是MMAnalyzer进行分词工作所必需的。 在实际项目中,正确导入这两个JAR包是确保MMAnalyzer正常...

    je-analysis-1.5.3.rar_JE-Analysis

    **JE-Analysis 1.5.3:Java环境下的中文分词工具** JE-Analysis是专为Java环境设计的一款高效、灵活的中文分词库,主要用于处理和理解中文文本。这个版本是1.5.3,它提供了对Lucene和Nutch等搜索引擎框架的无缝集成...

    全检索jar包资源:Lucene-core-2.0.0/2.3.0 + je-analysis-1.5.3

    全文检索jar包资源:资源中包括从网上找到并下载的jar包资源,包括四个jar包:Lucene-core-2.0.0、Lucene-core-2.3.0、Lucene-demos-2.3.0、je-analysis-1.5.3。

    lucene-analyzers-smartcn-7.7.0-API文档-中文版.zip

    赠送jar包:lucene-analyzers-smartcn-7.7.0.jar; 赠送原API文档:lucene-analyzers-smartcn-7.7.0-javadoc.jar; 赠送源代码:lucene-analyzers-smartcn-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-...

    词频计算,分词技术je-analysis.Net版本+代码.rar

    "je-analysis.Net"是一个针对.NET平台的Java版jieba分词器的移植,它提供高效的中文分词功能,支持精确模式、全模式、搜索引擎模式等多种分词策略。 在这个压缩包中,我们可以看到以下文件: 1. ShootSeg.sln和...

Global site tag (gtag.js) - Google Analytics