0 0

基于solr4.1 IK分词 同义词等过滤器的配置25

基于solr4.1的配置方面 由于4.1的版本,
“在Solr4.0发布以后,官方取消了BaseTokenizerFactory接口,而直接使用Lucene Analyzer标准接口。因此IK分词器2012 FF版本也取消了org.wltea.analyzer.solr.IKTokenizerFactory类。”

所以 对于IK的配置
<fieldType name="text" class="solr.TextField">
 <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
 </fieldType>


我现在想知道下 对于之前的filer 的配置该如何 做。以下是我现在的配置

	<fieldType name="my_text" class="solr.TextField">

		<analyzer isMaxWordLength="true" useSmart="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/> 
		<filter class="solr.LowerCaseFilterFactory"/>  
		<filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>  
		<filter class ="solr.WordDelimiterFilterFactory" generateWordParts ="1" generateNumberParts ="1" catenateWords ="1" catenateNumbers ="1" catenateAll ="0" splitOnCaseChange ="1" /> 
		<filter class ="solr.StopFilterFactory" ignoreCase ="true" words ="stopwords.txt " enablePositionIncrements ="true"/> 
		
		
    </fieldType>
	


但是我在synonyms.txt 同义词中
配置的beijing,北京。
查询beijing 没有将北京的查询出来。
请问哪为朋友有相关方面的经验。请指教

问题补充:
    <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer">
    <filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>
    </analyzer>
    <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer">
    <filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>
    </analyzer> 
修改后的 配置

问题补充:更改后报 Caused by: org.apache.solr.common.SolrException: Plugin init failure for [schema.xml] fieldType 这个错误
缺少JAR?

问题补充:已解决~!
2013年3月07日 16:57

1个答案 按时间排序 按投票排序

0 0

您好,我现在也遇到同样的问题,请问你是怎么解决的,网上有人针对此问题增加了IKTokenizerFactory 类,但配置上去后就找不到节点了。

2014年10月10日 13:18

相关推荐

    solr4.1+IK中文分词

    安装和配置过程中,需要在Solr的配置文件中指定IK分词器,例如在schema.xml中定义字段类型,并设置IK分词器为默认分析器。同时,根据实际需求,可能还需要对IK分词器进行一些定制,比如添加自定义词典,以包含特定...

    solr ik分词器

    3. **配置Solr核心**:接下来,你需要在你的Solr核心(collection)配置文件`solrconfig.xml`中添加IK分词器的相关配置。在`&lt;requestHandler&gt;`或者`&lt;searchComponent&gt;`部分添加以下代码: ```xml &lt;filter class="...

    支持solr5.5 solr6.0中IK分词需要的资料

    标题和描述提到的是针对Solr 5.5和Solr 6.0版本的IK分词器支持的相关资料,这意味着这些资源可能包括配置文件、文档、示例代码或者更新日志,帮助用户在这些特定版本的Solr中集成和优化IK分词器。 首先,让我们来看...

    solr导入 IK分词

    IK分词器(Intelligent Chinese Analyzer for Solr)是为Solr设计的一款高性能的中文分词组件,尤其适用于海量数据的分词处理。在本主题中,我们将深入探讨如何在Solr中导入并使用IK分词器。 一、IK分词器介绍 IK...

    solr配置IK分词器Jar包和配置文件

    标题中的“solr配置IK分词器Jar包和配置文件”意味着我们需要将IK分词器的相关库文件(Jar包)添加到Solr的类路径中,并且对Solr的配置文件进行适当的修改,以便Solr知道如何使用这个分词器。 首先,你需要下载IK...

    IK分词solr5.0.0

    1. **下载与配置**:首先,从IK分词器的官方仓库下载对应的版本,然后将下载的jar文件放入Solr的lib目录下,确保在Solr启动时能够加载到IK分词器的类库。 2. **修改schema.xml**:在Solr的配置文件schema.xml中,...

    支持 Solr7 的 ik 分词器

    2. **Solr7.0集成IK分词器.docx**:这是一份详细的文档,指导用户如何在 Solr 7 中配置和使用 ik 分词器。它会涵盖安装步骤、配置参数设置以及可能出现的问题及其解决方案,对于初次使用者来说非常有价值。 3. **ik...

    针对Solr6.6.0的IK分词器

    Solr6.6.0中的IK分词器是用于对中文文本进行精细化分词的工具,它是基于Apache Lucene的开源搜索引擎项目Solr的一个插件。这个插件的主要任务是将中文句子分解成一系列有意义的词语,以便于索引和搜索。在Solr中,...

    Solr6.5 IK分词器

    在Solr 6.5中集成IK分词器,需要在Solr的配置文件`solrconfig.xml`中添加IKAnalyzer的相关配置,包括指定分词器的类路径以及自定义词典等。同时,在字段类型定义(`schema.xml`或`managed-schema`)中,为需要进行...

    solr IK分词需要的资料

    在你的Solr核心配置文件`solrconfig.xml`中,添加以下配置来启用IK分词器: ```xml &lt;requestHandler name="/update" class="solr.UpdateRequestHandler"&gt; &lt;str name="analysis.show_token_stream"&gt;true ...

    solr-4.10.3+ik分词器

    在Solr的配置文件中,如“solr/conf/solrconfig.xml”和“solr/conf/managed-schema”中,我们需要指定使用IK分词器。添加或修改相应的分析器设置,比如设置默认的查询分析器和索引分析器为IKAnalyzer。重启Solr服务...

    solr 7.2.1IK分词jar包

    Solr是中国大名鼎鼎的开源搜索引擎框架Lucene的一个扩展,它提供了全文检索、Hit高亮、faceted search(分类浏览)、XML/...通过理解IK分词器的工作原理和配置方法,我们可以更好地利用Solr进行中文信息检索和管理。

    IK分词器,支持solr6.60高版本,支持智能分词和细粒度分词

    IK分词器,支持solr6.60高版本,支持智能分词和细粒度分词,经本人测试可以使用的,支持高版本,智能分词用IKCrudeAnalyzer

    Solr-ik分词

    在Solr中配置Ik分词器,通常需要以下几个步骤: 1. 下载ikanalyzer-solr5版本的分词器库,并将其添加到Solr的lib目录下,确保Solr启动时能够加载到这个库。 2. 在Solr的schema.xml文件中,定义一个字段类型(Field...

    solr ik中文分词

    将这个JAR文件添加到Solr的lib目录下,可以让Solr使用IK分词器进行中文分词处理。 **深蓝词库转换.exe** 深蓝词库转换工具可能是用来将词库文件转换成适合IK Analyzer或其他分词器使用的格式。词库对于分词器来说...

    solr(ik分词器)需要的jar包

    Ik分词器(IK Analyzer)是一个专门为Java设计的中文分词库,广泛应用于Solr和Elasticsearch等搜索引擎中。 标题中的"solr(ik分词器)需要的jar包"指的是为了在Solr中使用IK分词器,我们需要下载并添加相应的Java ...

    solr4.3的IK分词器

    最新版solr4.3的IK分词器,中文分词效果良好!对付一般的大众分词没有问题

    IK分词器_ikanalyzer-solr5

    IK分词器以其高效、灵活的特点,成为许多基于Java的文本处理系统,如Solr、Elasticsearch等的首选中文分词工具。 ikanalyzer-solr5是IK分词器针对Apache Solr 5版本的一个特别构建,确保了与该版本Solr的兼容性。...

    solr全文检索+IK分词器

    Solr全文检索与IK分词器的整合是构建高效中文搜索引擎的关键步骤。Solr,作为Apache Lucene的一个开源搜索服务器,提供了强大的全文检索、高级索引和搜索功能。而IK分词器(Intelligent Chinese Analyzer for Solr)...

Global site tag (gtag.js) - Google Analytics