生产环境:
solr4.7.2
jdk1.6
lucene4.7.2
mmseg4j-core-1.10 (https://github.com/chenlb/mmseg4j-core.git)
mmseg-solr-2.0 (https://github.com/chenlb/mmseg4j-solr.git)
pinyin4j-2.5.0
pinyinAnalyzer (https://github.com/liangbaolin/pinyinAnalyzer.git)
说明:
- 由于mmseg4j本身对max-word模式下分词做了最小只能是2个词的限制,而作者又没有好的办法,所以我们针对自身应用做了一些调整
- 由于pinyinAnalyzer是针对solr5.0以上的版本,所以我们对其源码做了调整,将其整合到了4.7.2中;
- 由于pinyinAnalyzer中转换拼音简称的时候使用的是pinyin4j包中的getPinyinShortCollection方法,而该方法输出简拼时会多输出一个字母(如:“重庆”的输出为[cq,zq,c,z],而其中的单个字母对索引影响极大);因此将其替换为getPinyinShort方法(如:“重庆”的输出为cq,zq)
pinyinAnalyzer源码修改:(这里只列主要的PinyinTokenFilter.java)
需求:
- 需要搜索拼音能搜到对应企业,如搜索”xiaomi”可以查询出“小米通讯技术有限公司”
- 搜索“xiaomi”可以高亮汉字“小米”
- 可以使用拼音简称搜索,如搜索“cq”或“zq”可以搜到包含“重庆”的数据
方案分析:
开始考虑两种方案:
方案一:在应用中将中文搜索词转为拼音,对于关键词统一以英文或拼音的形式搜索
方案二:通过分词手段,在建立索引时直接将分词后的关键词对应的全拼(包括多音字全拼)、简拼(如cq,zq)一并写入索引;
查询时,只需要以同样规则将搜索词分词后再加入拼音,这样既可以搜索中文,又可以搜索拼音
说明:因为方案二的调整仅限于索引层面,而对应用本身毫无影响,所以最终选择方案二
前期含拼音分词测试:
1.分析词“重庆”、查询词“重庆”,分析结果如下:
2.分析词“重庆”、查询词“cq”,分析结果如下:
3.分析词“重庆”、查询词“chongqing”,分析结果如下:
solr配置:
1.将修改过源码的pinyinAnalyzer.jar、msseg4j-core.jar放于solr4.7.2对应lib目录
2.将pinyin4j-2.5.0.jar放于solr4.7.2对应目录下
3.配置schema.xml:
a.定义字段类型
<fieldType name="text_mmseg4j_pinyin" class="solr.TextField" positionIncrementGap="100" autoGeneratePhraseQueries="false" >
<analyzer type="index">
<tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="max-word" dicPath="dic"/>
<filter class="utn.index.mmseg.solr.PinyinTokenFilterFactory" minTermLength="2" pinyinAll="true" outChinese="true"/>
</analyzer>
<analyzer type="query">
<tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="max-word" dicPath="dic"/>
<filter class="utn.index.mmseg.solr.PinyinTokenFilterFactory" minTermLength="2" outChinese="true" pingyinAll="true"/>
</analyzer>
</fieldType>
b.将对应field的type改为text_mmseg4j_pinyin
c.重启solr
修改后的源码及jar包见附件
相关推荐
Solr3.2 + mmseg4j-1.8.4中文搜索引擎Demo是一个演示项目,旨在展示如何在Solr3.2版本中结合mmseg4j实现高效的中文搜索功能。Solr是Apache软件基金会开发的一个开源全文搜索引擎,它提供了一个分布式、可扩展且高度...
本教程将详细介绍如何在Tomcat中整合Solr3.6版本,并引入MMSEG4J中文分词库,实现高效的中文文本处理。 【Solr3.6核心概念】 1. **SolrCloud**:Solr3.6引入了分布式搜索和管理功能,称为SolrCloud,提供了...
Solr4.7.2是Solr的一个版本,它包含了许多优化和改进,使得在处理大数据量时更加高效稳定。Tomcat7则是一个流行的Java Servlet容器,用于部署和运行Java Web应用程序。将Solr与Tomcat集成,可以利用Tomcat的管理和...
`IK Analyzer` 和 `MMSEG` 分词器是两个广泛使用的工具,它们在 Solr(一个强大的全文搜索引擎)中发挥着重要作用。本篇文章将深入探讨这两个分词器以及它们在 Solr 6.1 版本中的应用。 首先,`IK Analyzer` 是一款...
"兼容solr4.10.3的mmseg4j-1.9.1分词器" 这个标题表明我们正在讨论的是一个针对Solr 4.10.3版本优化的mmseg4j分词器,版本号为1.9.1。mmseg4j是一款广泛使用的Java实现的中文分词库,它提供了高效且精准的中文分词...
在Solr6中配置mmseg4j是为了实现中文分词,从而提升搜索效果。mmseg4j是基于Java的一个高性能中文分词库,它提供了多种分词算法,如最长匹配、最短路径等,以满足不同的分词需求。 首先,我们需要理解Solr6的基本...
几乎全新搭建ssm+shiro+solr7+mybatis逆向+maven多项目初步搭建测试,只是大致框架,接下来自己写,下面是linux 下solr7+tomcat8+IK中文分词器 环境 https://download.csdn.net/download/laysolitary/10686971
solr6配置mmseg4j所需dic文件和jar包,包括word.dic,mmseg4j-core-1.10.0.jar,mmseg4j-solr-2.3.0.jar
Solr4.1 + IK中文分词是针对Apache Solr搜索引擎的一个重要组合,它使得在中文环境下进行全文检索和分析变得更加高效和精确。Apache Solr是一个开源的企业级搜索平台,基于Lucene库,提供了高性能、可扩展的全文索引...
值得注意的是,mmseg4j-solr-2.4.0.jar中的mmseg4j-2.4.0子目录包含了mmseg4j的核心组件,包括分词算法的实现和相关的配置文件。开发者可以通过阅读源代码和文档,更深入地了解其工作原理和优化技巧。 总之,mmseg4...
Solr是Apache Lucene项目的一个子项目,是一个高性能、全文本搜索服务器,广泛应用于各种大数据检索场景。在4.9版本中,Solr引入了集群功能,以支持高可用性和可扩展性。在这个集群环境中,Tomcat作为Servlet容器...
压缩包内含有solr+ik如何配置的详细介绍以及solr+ik的包,省去了自己去找地址下载的麻烦,经测试使用完全可以在电商电商项目中实现全文检索
### 在Tomcat环境下搭建Solr 3.5与MMSEG4J搜索引擎 #### 一、配置Solr环境 1. **下载Solr** - 访问官方下载页面:[http://www.apache.org/dyn/closer.cgi/lucene/solr/]...
Solr+IK分词集成Tomcat实现全文检索是构建高效搜索引擎的关键步骤,尤其在电子商务等大量数据检索场景中,这一技术的应用尤为重要。本教程将详细阐述如何通过Solr结合IK分词器,在Tomcat服务器上搭建一个功能完备的...
Solr+Spring+Hibernate+Maven+WebService整合框架是一个常见的企业级应用开发模式,它将搜索引擎Solr、持久层框架Hibernate、服务层框架Spring、构建工具Maven以及Web服务接口结合在一起,提供了一种高效、灵活的...
总之,mmseg4j 和 IKAnalyzer 都是 Solr 中用于中文全文检索的重要工具,它们各有特点,适用于不同的应用场景。选择哪个分词器取决于项目需求、性能要求以及团队对每个工具的熟悉程度。通过合理的配置和优化,可以...
【标题】"Tomcat8+Solr7.4+IK"是一个在Linux环境下搭建的搜索引擎解决方案,其中包含了Apache Tomcat 8作为应用服务器,Solr 7.4作为搜索引擎核心,以及IK Analyzer作为中文分词工具。这个配置适用于需要处理大量...
《拼音检索工具pinyinAnalyzer4.3.1.jar在Solr中的应用与解析》 在信息检索领域,尤其是在中文搜索引擎的构建过程中,拼音检索扮演着至关重要的角色。它能够帮助用户通过输入汉字的拼音来搜索相关的信息,极大地...