`

Lucene中文分词组件 JE-Analysis 1.4.0

阅读更多
本站申明: 该组件免费安装使用传播,无限制商业应用,但暂不开源,也不提供任何保证

分词效率: 第一次分词需要1-2秒(读取词典),之后速度基本与Lucene自带分词持平

运行环境: Lucene 1.9+

内存消耗: 30M+


1.4.0 —— 2006-08-21
增加词典的动态扩展能力

1.3.3 —— 2006-07-23
修正无法多次增加词典的问题

1.3.2 —— 2006-07-03
修正细粒度分词错误的问题

1.3.1 —— 2006-06-23
修正在某些情况下分词遗漏的问题

1.3 —— 2006-06-22
实现了词尾消歧算法中第一层的过滤
增加日期时间的匹配

1.2.2 —— 2006-06-13
完善了中英文噪声词典

1.2.1 —— 2006-06-10
修正中文数字成语无法识别的问题

1.2 —— 2006-06-08
增加中文数字的匹配(如:二零零六)
数量词采用“n”作为数字通配符
优化词典结构以便修改调整

1.1 —— 2006-06-06
增加扩展词典的静态读取方法

1.0.1 —— 2006-06-02
修正无法识别生僻字的问题

1.0 —— 2006-05-29
支持英文、数字、中文(简体)混合分词
常用的数量和人名的匹配
超过22万词的词库整理
实现正向最大匹配算法
支持分词粒度控制

420){this.resized=true;this.style.width=420;}">
下载

 文件名 je-analysis-1.4.0.jar
 描述  
 大小 878 Kbytes
 下载次数:  216 time(s)


 

 

 

//采用正向最大匹配的中文分词算法,相当于分词粒度等于0
MMAnalyzer analyzer = new MMAnalyzer();

//参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来
MMAnalyzer analyzer = new MMAnalyzer(2);

//增加一个新词典,采用每行一个词的读取方式
MMAnalyzer.addDictionary(reader);

//增加一个新词
MMAnalyzer.addWord(newWord);

 

package demo.analysis;

import java.io.IOException;

import jeasy.analysis.MMAnalyzer;

public class Segment
{

     public static void main(String[] args)
     {
         String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
         + "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
         + "20000余人受伤,近20万人无家可归。";
        
         MMAnalyzer analyzer = new MMAnalyzer();
         try
         {
                 System.out.println(analyzer.segment(text, " | "));
         }
         catch (IOException e)
         {
                 e.printStackTrace();
         }
     }
}

生成效果:

据 | 路透社 | 报道 | 印度尼西亚 | 社会 | 事务 | 部 | 官员 | 星期二 | 29日 | 表示 | 日惹 | 市 | 附近 | 当地时间 | 27日

| 晨 | 5时 | 53分 | 发生 | 里氏 | 6.2级 | 地震 | 已经 | 造成 | 至少 | 5427人 | 死亡 | 20000 | 余人 | 受伤 | 近 | 20万人 | 无家可归 |

<!---->

 

package demo.analysis;

import jeasy.analysis.MMAnalyzer;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.queryParser.QueryParser;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.RAMDirectory;

public class Segment
{
    
     public static void main(String[] args)
     {
         String fieldName = "text";
         String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
             + "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
             + "20000余人受伤,近20万人无家可归。"; //检索内容

         //采用正向最大匹配的中文分词算法
         Analyzer analyzer = new MMAnalyzer();

         Directory directory = new RAMDirectory();
         //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);

         try
          {
             IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
             iwriter.setMaxFieldLength(25000);
             Document doc = new Document();
             doc.add(new Field(fieldName, text, Field.Store.YES, Field.Index.TOKENIZED));
             iwriter.addDocument(doc);
             iwriter.close();
            
             IndexSearcher isearcher = new IndexSearcher(directory);
             QueryParser parser = new QueryParser(fieldName, analyzer);
             Query query = parser.parse("印度尼西亚 6.2级地震");//检索词
             Hits hits = isearcher.search(query);
             System.out.println("命中:" + hits.length());

             for (int i = 0; i < hits.length(); i++)
             {
                 Document hitDoc = hits.doc(i);
                 System.out.println("内容:" + hitDoc.get(fieldName));
             }

             isearcher.close();
             directory.close();
         }
         catch (Exception e)
         {
             e.printStackTrace();
         }  
     }
    
}

生成效果:

命中:1
内容:据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生

的里氏6.2级地震已经造成至少5427人死亡,20000余人受伤,近20万人无家可归。

<!---->

 

package demo.analysis;

import jeasy.analysis.MMAnalyzer;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.TermPositionVector;
import org.apache.lucene.queryParser.QueryParser;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.highlight.Highlighter;
import org.apache.lucene.search.highlight.QueryScorer;
import org.apache.lucene.search.highlight.TokenSources;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.RAMDirectory;

public class Segment
{

     public static void main(String[] args)
     {
         String fieldName = "text";
         String text = "据路透社报道,印度尼西亚社会事务部一官员星期二(29日)表示,"
             + "日惹市附近当地时间27日晨5时53分发生的里氏6.2级地震已经造成至少5427人死亡,"
             + "20000余人受伤,近20万人无家可归。"; //检索内容

         //采用正向最大匹配的中文分词算法
         Analyzer analyzer = new MMAnalyzer();

         Directory directory = new RAMDirectory();
         //Directory directory = FSDirectory.getDirectory("/tmp/testindex", true);

         try
         {
             IndexWriter iwriter = new IndexWriter(directory, analyzer, true);
             iwriter.setMaxFieldLength(25000);
             Document doc = new Document();
             doc.add(new Field(fieldName, text, Field.Store.YES,
                     Field.Index.TOKENIZED,
                     Field.TermVector.WITH_POSITIONS_OFFSETS));
             iwriter.addDocument(doc);
             iwriter.close();

             IndexSearcher isearcher = new IndexSearcher(directory);
             QueryParser parser = new QueryParser(fieldName, analyzer);
             Query query = parser.parse("印度尼西亚 6.2级地震");//检索词
             Hits hits = isearcher.search(query);
             System.out.println("命中:" + hits.length());

             Highlighter highlighter = new Highlighter(new QueryScorer(query));
             for (int i = 0; i < hits.length(); i++)
             {
                 text = hits.doc(i).get(fieldName);
                 TermPositionVector tpv = (TermPositionVector) IndexReader.open(
                     directory).getTermFreqVector(hits.id(i), fieldName);
                 TokenStream tokenStream = TokenSources.getTokenStream(tpv);
                 String result = highlighter.getBestFragments(tokenStream, text, 3, "...");
                 System.out.println("内容:" + result);
             }

             isearcher.close();
             directory.close();
         }
         catch (Exception e)
         {
             e.printStackTrace();
         }
     }

}

生成效果:

命中:1
内容:据路透社报道,<B>印度尼西亚</B>社会事务部一官员星期二(29日)表示,日惹市附近当地时间27日晨5时53分发生的

里氏<B>6.2级</B><B>地震</B>已经造成至少5427人死亡,20000余人受伤,近20万人无家可归

来源:http://www.jesoft.cn/posts/list/5.page

分享到:
评论
1 楼 valgrind 2008-12-19  
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/lucene/analysis/Analyzer  怎么解决啊?

相关推荐

    Lucene中文分词组件 JE-Analysis 1.5.1

    //采用正向最大匹配的中文分词算法,相当于分词粒度等于0 MMAnalyzer analyzer = new MMAnalyzer(); //参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来 MMAnalyzer analyzer = new ...

    整合资源jsmartco_zh_CN+je-analysis-1.4.0+lucene-core-2.0.0+heritrix.14.4.

    标题中的“jsmartco_zh_CN+je-analysis-1.4.0+lucene-core-2.0.0+heritrix.14.4”表明这是一个关于搜索引擎开发的资源集合,主要包括了jsmartco中文版、je-analysis 1.4.0、lucene核心库2.0.0以及Heritrix爬虫14.4...

    je-analysis-1.4.0.jar

    总之,"je-analysis-1.4.0.jar"是一个专为开发搜索引擎而设计的工具,它包含了一个中文分词器和可能集成的Lucene库。这个jar包简化了中文文本处理的复杂性,使得开发者可以更专注于搜索算法的设计和优化。

    je-analysis-1.5.1.jar+lucene-core-3.5.0.jar+IKAnalyzer2012.zip

    在您提供的资源中,"je-analysis-1.5.1.jar"、"lucene-core-3.5.0.jar" 和 "IKAnalyzer2012.zip" 是三个关键组件,它们在文本分词过程中扮演着重要角色。 首先,"je-analysis-1.5.1.jar" 是一个Java库,很可能是一...

    lucene2.0与其分词工具包

    在分词工具方面,"je-analysis-1.4.0.jar"是一个重要的组件,它包含了对中文文本进行分词处理的算法和实现。在中文环境下,搜索引擎需要先将文本分词才能进行有效的索引和查询。"je-analysis"可能是一个早期的中文...

    lucene 2.0开发包

    lucene 2.0虽然是比较老的技术,它对实时搜索支持交差,不过很多普通的搜索引擎对实时性要求并不是很高,并且对于分词上没有太多的...其中je-analysis-1.4.0.jar 为分词接口的包 lucene-core-2.0.0.jar是和搜索相关的包

    Lucene对本地文件多目录创建索引

    - `je-analysis-1.4.0.jar`:可能是基于Java的中文分词工具,与IKAnalyzer类似。 - `lukeall-0.8.1.jar`:Luke是一个用于查看和分析Lucene索引的工具,可以帮助开发者调试和理解索引结构。 - `log4j-1.2.12.jar`...

Global site tag (gtag.js) - Google Analytics