1:项目地址:
https://github.com/chenlb/mmseg4j-solr
https://github.com/chenlb/mmseg4j-solr/wiki
2: solr的shcema.xml:
<fieldtype name="textComplex" class="solr.TextField" positionIncrementGap="100"> <analyzer> <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="complex" dicPath="dic"/> </analyzer> </fieldtype> <fieldtype name="textMaxWord" class="solr.TextField" positionIncrementGap="100"> <analyzer> <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="max-word" /> </analyzer> </fieldtype> <fieldtype name="textSimple" class="solr.TextField" positionIncrementGap="100"> <analyzer> <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="simple" dicPath="n:/custom/path/to/my_dic" /> </analyzer> </fieldtype>
tokenizer 的参数:
- dicPath 参数 - 设置自定义的扩展词库,支持相对路径(相对于 solr_home).
- mode 参数 - 分词模式。
如果没有自定义的词库, dicPath 参数可以省略
3:
简单分词使用textSimple(分词粒度不过精确但耗时少), 复杂分词使用 textComplex(分词粒度精确但耗时多)
4:
下载地址: http://yun.baidu.com/s/1dD7qMFf#dir/path=%2Fmmseg4j-solr
下载后解压 mmseg4j-solr-2.2.0-with-mmseg4j-core.zip
将 mmseg4j-core-1.10.0.jar 和 mmseg4j-solr-2.2.0.jar放到 solr.war/WEB-INF/lib 目录中
solr会自动使用 mmseg4j-core-1.10.0.jar中的data目录下的分词文件
mmseg4j中的词库:(强制使用 UTF-8):
- data/chars.dic 是单字与语料中的频率,一般不用改动,1.5版本中已经加到mmseg4j的jar里了,我们不需要关心它,当然你在词库目录放这个文件可以覆盖它。
- data/units.dic 是单字的单位,默认读jar包里的,你也可以自定义覆盖它,这个功能是试行,如果不喜欢它,可以用空的units.dic文件(放到你的词库目录下)覆盖它。
- data/words.dic 是词库文件,一行一词,当然你也可以使用自己的,1.5版本使用 sogou 词库,1.0的版本是用 rmmseg 自带的词库。
- data/wordsxxx.dic 1.6版支持多个词库文件,data 目录(或你定义的目录)下读到"words"前缀且".dic"为后缀的文件。如:data/words-my.dic。
- 由于 utf-8 文件有带与不带 BOM 之分,建议词库第一行为空行或为无 BOM 格式的 utf-8 文件。
5:
solr支持在索引了一部分数据后 IK Analisis 分词转换为 mmseg4j
相关推荐
而mmseg4j-solr-2.4.0.jar是mmseg4j分词库的Solr插件版本,专为Solr设计,使得开发者可以方便地将mmseg4j的分词功能集成到Solr中,以提升搜索性能和精确度。 在Solr 6.3版本下,要使用mmseg4j-solr-2.4.0.jar,首先...
《mmseg4j-solr全版本与配置详解》 在大数据时代,搜索引擎技术成为信息检索的关键工具。其中,Solr作为一款强大的开源全文搜索引擎,广泛应用于各类信息系统的搜索功能。而mmseg4j则是Solr中常用的中文分词组件,...
而mmseg4j-solr-2.2.0.jar则是专门为Solr定制的扩展模块,它将mmseg4j的分词能力无缝集成到Solr中,使得Solr在处理中文文档时能够自动进行分词操作。 在Solr 4.9版本中,mmseg4j的集成使得用户无需编写复杂的自定义...
《mmseg4j-solr-2.1.0-with-mmseg4j-core.zip:Solr4.8与mmseg4j分词器的集成详解》 在信息检索和文本挖掘领域,搜索引擎扮演着至关重要的角色,而Apache Solr作为一款高效、可扩展的开源全文搜索平台,被广泛应用...
mmseg4j中文分词器 mmseg4j-core-1.10.0.jar mmseg4j-solr-2.3.0.jar两个主要依赖包
1. **安装与配置**:将mmseg4j-solr-2.2.0的jar包添加到Solr的lib目录下,然后在Solr的schema.xml中配置分词器,指定使用mmseg4j-solr的分词算法。 2. **定制词典**:mmseg4j-solr允许用户自定义词典,以适应特定...
本人用的solr是4.10的,经过本人亲测可用,放心下载,包含以下3个jar包: mmseg4j-analysis-1.9.1.jar, mmseg4j-core-1.9.1.jar, mmseg4j-solr-2.2.0.jar
《mmseg4j-solr-master:中文分词利器与应用探索》 在现代信息处理领域,中文分词是至关重要的第一步,它涉及到搜索引擎优化、文本挖掘、情感分析等多个应用场景。mmseg4j-solr是一款针对Solr的高效中文分词工具,...
里面包含了mmseg4j-solr-2.0.0.jar,mmseg4j-solr-2.1.0.jar,mmseg4j-solr-2.2.0.jar,mmseg4j-solr-2.3.0.jar总共4个文件,其中: mmseg4j-solr-2.0.0.jar 要求 lucene/solr >= 4.3.0。在 lucene/solr [4.3.0, 4.7.1]...
该压缩包包含`mmseg4j-solr-2.3.2.jar`和`mmseg4j-core-1.10.0.jar`,其中solr-2.3.2不是官方的版本,该版本有改动,使得mmseg4j可以很好的支持Solr6,如果你的Solr低于Solr6,请使用官方的mmseg4j-solr-2.3.0.jar...
mmseg4j-solr-2.3.0-with-mmseg4j-core是Solr的中文分词包,该压缩包含有mmseg4j-core-1.10.0.jar和mmseg4j-solr-2.3.0.jar。
本篇文章将详细探讨mmseg4j在Solr中的应用以及其与Solr的集成,同时也会涉及到如何在Solr5.0版本中进行分词操作和自定义词库的设置。 首先,mmseg4j的核心库——mmseg4j-core-1.10.0.jar,提供了基本的分词功能。该...
mmseg4j-solr-2.3.1-SNAPSHOT.jar
1. 引入mmseg4j的jar包到项目中。 2. 创建分词器实例,如`SimpleSeg`或`ComplexSeg`,根据项目需求选择合适的分词策略。 3. 加载词典,可以是默认词典,也可以是自定义词典。 4. 使用分词器对输入的中文文本进行分词...
mmseg4j-core-1.10.0,非常好用的中文分词器
**mmseg4j分词器详解** mmseg4j是一个基于Java实现的中文分词库,它主要用于将中文文本拆分成一...升级到修复bug的mmseg4j-analysis-1.9.1.jar,可以确保你的应用能够享受到最新的优化成果,避免因旧版bug导致的问题。
3. `mmseg4j-solr-1.9.2-SNAPSHOT.jar`:这个文件是专门为Solr定制的mmseg4j版本,可能是为了更好地与Solr集成,优化性能或者添加了特定的Solr插件。版本号1.9.2-SNAPSHOT与前面的分析模块版本相同,说明这两个文件...
Solr是一个流行的开源搜索服务器,mmseg4j-solr使得mmseg4j能够无缝地集成到Solr中,为Solr提供强大的中文分词支持,提升全文检索的效果。 3. **mmseg4j-analysis-1.9.1.jar**:这个包是针对分析和处理文本的工具集...
mmseg4j-analysis修改版直接用
mmseg4j-1.8.5中文分词器API