基于solr4.1的配置方面 由于4.1的版本,
“在Solr4.0发布以后,官方取消了BaseTokenizerFactory接口,而直接使用Lucene Analyzer标准接口。因此IK分词器2012 FF版本也取消了org.wltea.analyzer.solr.IKTokenizerFactory类。”
所以 对于IK的配置
<fieldType name="text" class="solr.TextField">
<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>
我现在想知道下 对于之前的filer 的配置该如何 做。以下是我现在的配置
<fieldType name="my_text" class="solr.TextField">
<analyzer isMaxWordLength="true" useSmart="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
<filter class="solr.LowerCaseFilterFactory"/>
<filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>
<filter class ="solr.WordDelimiterFilterFactory" generateWordParts ="1" generateNumberParts ="1" catenateWords ="1" catenateNumbers ="1" catenateAll ="0" splitOnCaseChange ="1" />
<filter class ="solr.StopFilterFactory" ignoreCase ="true" words ="stopwords.txt " enablePositionIncrements ="true"/>
</fieldType>
但是我在synonyms.txt 同义词中
配置的beijing,北京。
查询beijing 没有将北京的查询出来。
请问哪为朋友有相关方面的经验。请指教
问题补充:
<analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer">
<filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>
</analyzer>
<analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer">
<filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>
</analyzer>
修改后的 配置
问题补充:更改后报 Caused by: org.apache.solr.common.SolrException: Plugin init failure for [schema.xml] fieldType 这个错误
缺少JAR?
问题补充:已解决~!
相关推荐
安装和配置过程中,需要在Solr的配置文件中指定IK分词器,例如在schema.xml中定义字段类型,并设置IK分词器为默认分析器。同时,根据实际需求,可能还需要对IK分词器进行一些定制,比如添加自定义词典,以包含特定...
3. **配置Solr核心**:接下来,你需要在你的Solr核心(collection)配置文件`solrconfig.xml`中添加IK分词器的相关配置。在`<requestHandler>`或者`<searchComponent>`部分添加以下代码: ```xml <filter class="...
标题和描述提到的是针对Solr 5.5和Solr 6.0版本的IK分词器支持的相关资料,这意味着这些资源可能包括配置文件、文档、示例代码或者更新日志,帮助用户在这些特定版本的Solr中集成和优化IK分词器。 首先,让我们来看...
IK分词器(Intelligent Chinese Analyzer for Solr)是为Solr设计的一款高性能的中文分词组件,尤其适用于海量数据的分词处理。在本主题中,我们将深入探讨如何在Solr中导入并使用IK分词器。 一、IK分词器介绍 IK...
标题中的“solr配置IK分词器Jar包和配置文件”意味着我们需要将IK分词器的相关库文件(Jar包)添加到Solr的类路径中,并且对Solr的配置文件进行适当的修改,以便Solr知道如何使用这个分词器。 首先,你需要下载IK...
1. **下载与配置**:首先,从IK分词器的官方仓库下载对应的版本,然后将下载的jar文件放入Solr的lib目录下,确保在Solr启动时能够加载到IK分词器的类库。 2. **修改schema.xml**:在Solr的配置文件schema.xml中,...
2. **Solr7.0集成IK分词器.docx**:这是一份详细的文档,指导用户如何在 Solr 7 中配置和使用 ik 分词器。它会涵盖安装步骤、配置参数设置以及可能出现的问题及其解决方案,对于初次使用者来说非常有价值。 3. **ik...
Solr6.6.0中的IK分词器是用于对中文文本进行精细化分词的工具,它是基于Apache Lucene的开源搜索引擎项目Solr的一个插件。这个插件的主要任务是将中文句子分解成一系列有意义的词语,以便于索引和搜索。在Solr中,...
在Solr 6.5中集成IK分词器,需要在Solr的配置文件`solrconfig.xml`中添加IKAnalyzer的相关配置,包括指定分词器的类路径以及自定义词典等。同时,在字段类型定义(`schema.xml`或`managed-schema`)中,为需要进行...
在你的Solr核心配置文件`solrconfig.xml`中,添加以下配置来启用IK分词器: ```xml <requestHandler name="/update" class="solr.UpdateRequestHandler"> <str name="analysis.show_token_stream">true ...
在Solr的配置文件中,如“solr/conf/solrconfig.xml”和“solr/conf/managed-schema”中,我们需要指定使用IK分词器。添加或修改相应的分析器设置,比如设置默认的查询分析器和索引分析器为IKAnalyzer。重启Solr服务...
Solr是中国大名鼎鼎的开源搜索引擎框架Lucene的一个扩展,它提供了全文检索、Hit高亮、faceted search(分类浏览)、XML/...通过理解IK分词器的工作原理和配置方法,我们可以更好地利用Solr进行中文信息检索和管理。
IK分词器,支持solr6.60高版本,支持智能分词和细粒度分词,经本人测试可以使用的,支持高版本,智能分词用IKCrudeAnalyzer
在Solr中配置Ik分词器,通常需要以下几个步骤: 1. 下载ikanalyzer-solr5版本的分词器库,并将其添加到Solr的lib目录下,确保Solr启动时能够加载到这个库。 2. 在Solr的schema.xml文件中,定义一个字段类型(Field...
将这个JAR文件添加到Solr的lib目录下,可以让Solr使用IK分词器进行中文分词处理。 **深蓝词库转换.exe** 深蓝词库转换工具可能是用来将词库文件转换成适合IK Analyzer或其他分词器使用的格式。词库对于分词器来说...
Ik分词器(IK Analyzer)是一个专门为Java设计的中文分词库,广泛应用于Solr和Elasticsearch等搜索引擎中。 标题中的"solr(ik分词器)需要的jar包"指的是为了在Solr中使用IK分词器,我们需要下载并添加相应的Java ...
最新版solr4.3的IK分词器,中文分词效果良好!对付一般的大众分词没有问题
IK分词器以其高效、灵活的特点,成为许多基于Java的文本处理系统,如Solr、Elasticsearch等的首选中文分词工具。 ikanalyzer-solr5是IK分词器针对Apache Solr 5版本的一个特别构建,确保了与该版本Solr的兼容性。...
Solr全文检索与IK分词器的整合是构建高效中文搜索引擎的关键步骤。Solr,作为Apache Lucene的一个开源搜索服务器,提供了强大的全文检索、高级索引和搜索功能。而IK分词器(Intelligent Chinese Analyzer for Solr)...