`
chenlb
  • 浏览: 695759 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

中文分词 mmseg4j

阅读更多
使用 paoding 的配置觉得有点复杂,而且管理词库也有点不方便,同时自己也想了解下中文分词算法,然后就想自己写个中文分词器,在lucene和solr中使用。在 javaeye 看到有关 mmseg 的简介,看了下还不错,简单方便,那就用它来写个java版吧,我搜索 mmseg的java版(好像是 solo,官方已经下载不了),弄清分词算法还是自己写写吧。

实在想不到其它名字,就称它为 mmseg4j。关于 mmseg的算法我先不在这介绍,
可以参考:
  1. mmseg
  2. libmmseg
  3. rmmseg


mmseg4j 也实现了两种分词方式:Simple和Complex。

mmseg4j 扩展 lucene的analyzer,叫MMSegAnalyzer默认使用Complex方式,也可以用SimpleAnalyzer(Simple方式)。

来看下分词效果。

引用
M:\mmseg4j\build>java -Dmmseg.dic.path=../data -jar mmseg4j-1.0.jar 羽毛球拍,研究生命起源,国际化,眼看就要来了,为首要考虑
2009-3-22 22:29:45 com.chenlb.mmseg4j.Dictionary
信息: look up in mmseg.dic.path=../data
2009-3-22 22:29:45 com.chenlb.mmseg4j.Dictionary init
信息: chars loaded time=297ms, line=12638, on file=..\data\chars.dic
2009-3-22 22:29:46 com.chenlb.mmseg4j.Dictionary init
信息: words loaded time=485ms, line=120330, on file=..\data\words.dic
2009-3-22 22:29:46 com.chenlb.mmseg4j.Dictionary init
信息: sort time=125ms
2009-3-22 22:29:46 com.chenlb.mmseg4j.Dictionary init
信息: load dic use time=937ms

羽毛 | 球拍 | 研究 | 生命 | 起源 | 国际化 | 眼看 | 就要 | 来 | 了 | 为首 | 要 | 考虑 |


mmseg4j还扩展了solr的TokenizerFactory可以在Solr中方便的使用。可以指定词库的目录(paoding 到现在我还没搞懂怎么指定词库,在solr中使用,只能放到solr.war中)。mmseg4j在solr中使用的示例:
1、把mmseg4j-1.0.jar 放到solr.home/lib目录下(solr1.3支持)。
2、schema.xml定义field type
	<fieldType name="textComplex" class="solr.TextField" >
      <analyzer>
        <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" dicPath="dic"/>
      </analyzer>
    </fieldType>
	<fieldType name="textSimple" class="solr.TextField" >
      <analyzer>
        <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="simple" 
			dicPath="n:/OpenSource/apache-solr-1.3.0/example/solr/my_dic"/>
      </analyzer>
    </fieldType>

3、打开http://localhost:8080/solr/admin/analysis.jsp 察看分词效果。

MMSegTokenizerFactory 支持两个参数,mode=simple(默认是complex),dicPath可以用词库目录绝对路径或相对路径(相对路径是是相对solr.home目录)。可以为每个不同的MMSegTokenizerFactory指定不同的目录(一般应用中没有必要,一般用相同的目录,默认是CWD的data目录下找词库)。

词库,由于mmseg算法的特性要两个文件,我指定用chars.dic、words.dic,基本上chars.dic不需要改动,words.dic可以添加自己的词。现在用的是rmmseg的词库,当然你也可以用sogou的词库(下个版本准备用它)。

现在把 mmseg4j 发在 http://code.google.com/p/mmseg4j/ 上。可以下载 mmseg4j-1.0.jar

发现有 bug,联系我 chenlb2008#gmail.com。
分享到:
评论
17 楼 chenlb 2009-04-07  
我想我是海 写道
顶最早的mmseg for java的 Solol兄。由于其网站过期而弃用了。已通知solol放出原版下载。


我想我是海 写道
http://groups.google.com/group/mmseg
这是solol 较早前实现的MMSEG分词的java版本。


你比较喜欢顶 solol 兄,

顶 solol 兄是你的自由, 写 mmseg4j 是我的自由。你甚至还可以为 solol 兄的mmseg扩展lucene analyzer

我写 mmseg4j 的目的很简单:学习一种分词算法。
16 楼 我想我是海 2009-04-07  
http://groups.google.com/group/mmseg
这是solol 较早前实现的MMSEG分词的java版本。
15 楼 chenlb 2009-04-06  
mikeandmore 写道
赞...
话说可以考虑跟我的segc PK试试看...哈哈...

http://github.com/mikeandmore/segc/tree/master


PK 那方面?
14 楼 mikeandmore 2009-04-06  
赞...
话说可以考虑跟我的segc PK试试看...哈哈...

http://github.com/mikeandmore/segc/tree/master
13 楼 andy54321 2009-04-06  
哇塞。。。
汗一个
中文分词大学接触过一点点,楼主你不错
12 楼 dch1287 2009-04-03  
whaosoft 写道
你自己写的???

在JE, 遇到牛的机会很多, 故请不要见怪.
11 楼 stevensinclair 2009-04-03  
chenlb 写道
whaosoft 写道
你自己写的???


是我自己写的, 有问题吗?


  你的回答   牛!
10 楼 chenlb 2009-04-02  
whaosoft 写道
你自己写的???


是我自己写的, 有问题吗?
9 楼 whaosoft 2009-04-02  
你自己写的???
8 楼 我想我是海 2009-04-02  
顶最早的mmseg for java的 Solol兄。由于其网站过期而弃用了。已通知solol放出原版下载。
7 楼 chenlb 2009-04-02  
个人觉得, paoding 还是很优秀的, 由于 mmseg算法的特性,没有多分词。
6 楼 flyfan 2009-04-02  
有空试试用在compass上,之前都是用paoding
5 楼 chenlb 2009-04-02  
tibetjungle 写道
最大匹配优先算法?用的是什么词库?自己编的?

  1. mmseg4j 1.5版用的词库是 sogou,上一个版(1.0),词库是rmmseg的。
  2. 基于最大匹配,加四个过虑规则
  3. 算法不是我设计的,mmseg4j是自己编写的

4 楼 tibetjungle 2009-04-02  
最大匹配优先算法?用的是什么词库?自己编的?
3 楼 QuakeWang 2009-04-02  
Solo L以前写过一个也是基于mmseg的分词(开源),可是他的网站已经很久都不能访问了,我手头只有jar包,找不到源代码了,先上传上来,有兴趣的话可以做个性能对比,或者反编译参考一下。
1 楼 chenlb 2009-03-28  
mmseg4j-1.0有个bug:

MMSeg.next() 断句有个 bug。
空白字符后面的英文会丢失,且分词停止。

如:“手机电子书 http”空格后面的http丢了。

已经修复,请看 mmseg4j-1.patch

请用 mmseg4j-1.0.1.jar

相关推荐

    中文分词mmseg4j

    中文分词 solr 支持solr 4.7

    兼容solr4.10.3的mmseg4j-1.9.1分词器

    mmseg4j是一款广泛使用的Java实现的中文分词库,它提供了高效且精准的中文分词功能。而“兼容solr4.10.3”意味着这个分词器已经过测试,可以无缝集成到Solr 4.10.3的搜索引擎环境中,用于提高中文文本处理的性能。 ...

    word分词器、ansj分词器、mmseg4j分词器、ik-analyzer分词器分词效果评估

    本话题将深入探讨四种常用的Java分词工具:word分词器、ansj分词器、mmseg4j分词器以及ik-analyzer,以及它们在实际应用中的效果评估。 首先,ansj分词器是由李弄潮开发的一款开源分词工具,它具有强大的词典支持和...

    mmseg4j-solr-2.4.0.jar

    首先,mmseg4j是由李智勇开发的一个基于Java的中文分词工具,它的全称是“Minimum Match Segmentation for Java”。mmseg4j采用了最小匹配算法,能有效地进行中文词汇的切分,具有较高的分词准确率。该库的特点包括...

    mmseg4j1.9.1.zip 中文分词器

    **中文分词器mmseg4j详解** 在自然语言处理(NLP)领域,中文分词是基础且关键的一环。中文不同于英文,其词汇之间没有明显的边界,因此需要通过分词来识别句子中的词语。`mmseg4j`便是一款专为Java平台设计的高效...

    solr中文分词包mmseg4j-core-1.10.0.jar和mmseg4j-solr-2.3.0.jar

    mmseg4j-solr-2.3.0-with-mmseg4j-core是Solr的中文分词包,该压缩包含有mmseg4j-core-1.10.0.jar和mmseg4j-solr-2.3.0.jar。

    mmseg4j分词器jar包

    **mmseg4j分词器** 是一个专为Java平台设计的中文分词库,它在中文信息处理领域中扮演着重要的角色。该库的主要功能是将连续的汉字序列分割成具有语义意义的词语,这是自然语言处理(NLP)中的基础任务,对搜索引擎...

    solr mmseg4j 中文分词器

    mmseg4j-solr-2.3.0.jar 支持 solr5.x 版本以上 分词器本身并未做升级还是mmseg4j-core-1.10.0 和 mmseg4j-analysis-1.9.1.jar为了方便也一并上传

    mmseg4j-1.9.1 分词器 包含修复bug的mmseg4j-analysis-1.9.1.jar

    mmseg4j-1.9.1是一个强大的中文分词工具,它的1.9.1版本修复了已知问题,提高了整体性能。对于任何需要处理中文文本的Java应用,特别是对分词精度和效率有要求的项目,mmseg4j都是一个值得信赖的选择。升级到修复bug...

    mmseg4j-solr-mmseg4j-solr-2.2.0.zip

    mmseg4j是Java实现的中文分词库,它支持多种分词模式,包括最短路径分词、最长匹配分词以及全模式分词等,可以根据实际需求选择合适的模式。 当mmseg4j与Solr结合时,mmseg4j-solr便成为了一个强大的中文处理插件。...

    mmseg4j 2.3 源码

    Lucene中文分词 mmseg4j 2.3 源码

    mmseg4j-solr-2.1.0-with-mmseg4j-core.zip

    后者则是mmseg4j为Solr定制的插件,它使得Solr能够无缝集成mmseg4j的分词功能,为Solr的索引和查询提供强大的中文处理能力。 为了在Solr4.8中使用mmseg4j,我们需要进行以下步骤: 1. 解压下载的"mmseg4j-solr-...

    mmseg4j.jar

    《mmseg4j在中文分词中的应用与详解》 mmseg4j是Java实现的中文分词库,广泛应用于搜索引擎、文本分析等领域。在Java社区中,它因其高效、灵活的特点而备受青睐。本篇文章将围绕mmseg4j的核心组件、功能特性以及在...

    mmseg4j\mmseg4j-1.8.5.zip

    《mmseg4j:中文分词利器》 mmseg4j是一个专为Java设计的高效中文分词库,它的核心是基于"最小编辑距离"算法的分词方法,旨在提高中文文本处理的效率和准确性。在Java开发环境中,面对海量中文文本的处理,mmseg4j...

    mmseg4j 2.3 jar包

    mmseg4j采用了多级分词策略,主要包括四种分词模式:精确模式、全模式、简模式和搜索引擎模式。这些模式可根据实际应用场景灵活选择,以平衡分词速度和准确性。 **3. Lucene集成** Lucene是Apache开源项目的一款高...

    mmseg4j-1.9.1

    《mmseg4j-1.9.1:中文分词技术的卓越实践》 在中文信息处理领域,分词是至关重要的第一步,它涉及到搜索引擎、文本挖掘、机器翻译等多个应用场景。mmseg4j是一个专门为Java设计的高效中文分词工具,它的出现极大地...

    solr6配置mmseg4j

    在Solr6中配置mmseg4j是为了实现中文分词,从而提升搜索效果。mmseg4j是基于Java的一个高性能中文分词库,它提供了多种分词算法,如最长匹配、最短路径等,以满足不同的分词需求。 首先,我们需要理解Solr6的基本...

    mmseg4j-all-with-dic-1.8.6-sources.jar和mmseg4j-all-with-dic-1.8.6.jar

    《mmseg4j在Lucene中文分词中的应用与实现》 在中文信息处理领域,分词是至关重要的一步,它决定了后续文本分析的准确性和效率。mmseg4j是Java环境下广泛使用的中文分词库,尤其在搜索引擎构建和文本挖掘中发挥着...

    mmseg4j分词

    mmseg4j是一款针对Java平台的高效中文分词工具,因其准确性和高性能而在许多项目中得到广泛应用。 mmseg4j的设计灵感来源于MaxEnt Segmentation(最大熵分词)算法,这是一种基于统计模型的分词方法,它通过学习...

    MMseg4j中文分词词库

    《MMseg4j中文分词词库:深入理解与应用》 在中文信息处理领域,分词是文本分析的基础步骤,它将连续的汉字序列分割成具有语义的词汇单元。MMseg4j是一个广泛应用于Java环境中的中文分词工具,它以其高效、灵活和...

Global site tag (gtag.js) - Google Analytics