`
iluoxuan
  • 浏览: 574990 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

solr4.0加入中文分词IKanalry

 
阅读更多

1:solr4.0加入中文分词:

 

在IK的自带文档中有:

这里特别的罗嗦几句,在Solr4.0发布以后,官方取消了BaseTokenizerFactory接口,而直接使用Lucene Analyzer标准接口。因此IK分词器2012 FF版本也取消了org.wltea.analyzer.solr.IKTokenizerFactory类。

 

2:首先在tomcat不是的solr目录下lib中加入:

IKAnalyzer2012FF_u1.jar包

 

3:然后再solr目录C:\solr\collection1\conf下的schema.xml文件中加入:

 

 

    <fieldType name="text" class="solr.TextField">

      <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>

    </fieldType>

 

就可以了,在solr界面中analys选错 type下的 text就可以分词了

 

比如:

 



 2:解释下,我在Ik的jar包中的dir字典加入了 停用词:

中潭露。

  • 大小: 67.7 KB
分享到:
评论
8 楼 Java_大猫 2013-03-07  
baa 写道
iluoxuan 写道
好久 solr 没看了 我都忘了...............
我已经找到了原因。是我对tomcat发布机制不熟悉造成的。war包增加jar包需要先解压。


你导入什么jar包了?我也报插件错误的那个问题了
7 楼 baa 2013-01-25  
iluoxuan 写道
好久 solr 没看了 我都忘了...............
我已经找到了原因。是我对tomcat发布机制不熟悉造成的。war包增加jar包需要先解压。
6 楼 iluoxuan 2013-01-24  
好久 solr 没看了 我都忘了...............
5 楼 baa 2013-01-24  
mushuxiaoxiao 写道
你好,我用你的方法操作,有一个这样的错误collection1: org.apache.solr.common.SolrException:org.apache.solr.common.SolrException: Plugin init failure for [schema.xml] fieldType "text_zh":
Cannot load analyzer: org.wltea.analyzer.lucene.IKAnalyzer 。是不是我的配置有什么问题?
感谢您如果能回复!

跟你同样的错误。不知到该如何解决。
4 楼 hitliya 2012-12-25  
您好,我用solr4.0添加了IK。但是您用的是tomcat的方式,我用的是solr自带的例子。(参考http://abloz.com/2012/07/02/apache-search-engine-solr-trial.html)。现在问题来了,我将IKAnalyzer2012FF_u1.jar放到solr/apache-solr-4.0.0/example/solr/collection1/lib下,IKAnalyzer.cfg.xml和 ext.dic(扩展词库)也放到该位置,但是扩展词库却不起作用。没有报错,只是分词没有按照扩展词库的要求去分词,您了解是怎么回事么?简化的说,就是不用tomcat,IKAnalyzer.cfg.xml和 ext.dic应该放在哪里??谢谢啦!问题不难但是说不清楚,希望您能加我QQ:九八4419二一三,验证信息:祝天刚。谢谢
3 楼 iluoxuan 2012-11-15  
这个 你看下IK版本对不,版本对的话安装文档来是没错的
2 楼 mushuxiaoxiao 2012-11-12  
问题已解决,要把jar包以及配置文件放到war包web_INF里的lib中。打扰!
1 楼 mushuxiaoxiao 2012-11-12  
你好,我用你的方法操作,有一个这样的错误collection1: org.apache.solr.common.SolrException:org.apache.solr.common.SolrException: Plugin init failure for [schema.xml] fieldType "text_zh":
Cannot load analyzer: org.wltea.analyzer.lucene.IKAnalyzer 。是不是我的配置有什么问题?
感谢您如果能回复!

相关推荐

    Solr 4.0 源代码实例

    Solr 4.0 是Apache Lucene项目的一个子项目,是一个高性能、全文本搜索服务器,为企业级数据提供强大的搜索功能。源代码实例是学习Solr内部工作原理和自定义功能的关键资源,尤其对于开发者而言,深入理解源码有助于...

    Solr 4.0 cook book

    基于最新的Solr 4.0搜索引擎教程,包含大量示例讲解,是学习Solr4不可多得的教程。

    支持solr5.5 solr6.0中IK分词需要的资料

    IK分词器(Intelligent Chinese Analyzer for Solr,简称IK)是一款针对中文的高效分词工具,专为Solr和Lucene设计,旨在提高中文文本检索的准确性。 标题和描述提到的是针对Solr 5.5和Solr 6.0版本的IK分词器支持...

    支持lucene4.0的paoding分词

    支持lucene4.0的paoding分词

    支持 Solr7 的 ik 分词器

    总的来说,`ik-analyzer-solr7` 提供了一套完整的解决方案,使得在 Solr 7 中对中文文本进行高效、准确的分词成为可能。通过合理的配置和使用,可以极大地提升中文搜索的质量,满足各种复杂场景的需求。无论是企业级...

    solr 5.x 和 6.x 最新中文分词器

    一、Solr中文分词器概述 在处理中文文档时,由于中文句子没有明显的分隔符,如英文的空格,因此需要使用分词器进行预处理。Solr支持多种中文分词器,如IK Analyzer、Smart Chinese Analyzer、Paoding Analyzer等,...

    solr6的中文分词器ik-analyzer-solr-6.0.jar

    solr6的中文分词器ik-analyzer-solr-6.0.jar,在solr上亲测可用

    solr5配置中文分词

    中文分词是Solr5处理中文文档的关键步骤,因为中文句子不像英文那样有明显的空格分隔单词,需要通过分词器来将连续的汉字序列切分成有意义的词汇单元。本篇文章将深入探讨在Solr5中配置中文分词的过程。 首先,我们...

    Solr5.4中文分词

    在Solr 5.4版本中,对中文分词的支持是通过特定的分词器实现的。本文将详细介绍如何在Solr 5.4中配置中文分词库。 首先,"Solr5.4中文分词"这个标题表明我们关注的是针对Solr 5.4的一个特定分词解决方案。这通常...

    solr ik中文分词

    在处理中文文本时,由于中文的特殊性(词与词之间没有明显的分隔符),需要使用专门的分词器进行预处理,将连续的汉字流分割成有意义的词语,这个过程称为中文分词。IK Analyzer(简称IK)就是为了解决这个问题而...

    solr cloud6.1.0拼音分词

    拼音分词是处理中文文本的一种策略,它将汉字转换为其对应的拼音,从而允许用户通过输入拼音来搜索相关的中文内容。 在Solr中,拼音分词主要依赖于特定的分析器和过滤器。这些组件在索引和查询阶段处理文本,将汉字...

    solr7 的 ik分词器

    Solr7的IK分词器是针对中文文本检索的一个重要工具,它在全文检索领域扮演着关键角色。IK Analyzer是一款开源的、适用于Java环境的中文分词组件,专为提高中文信息处理的效率和准确性而设计。在Solr7版本中,IK分词...

    solr4.3的IK分词器

    最新版solr4.3的IK分词器,中文分词效果良好!对付一般的大众分词没有问题

    IK分词solr5.0.0

    首先,IK分词器全称为“Intelligent Chinese Analyzer for Solr”,由北京大学的开源社区开发,旨在提供对中文文本更精确的分词处理。IK分词器有两个主要版本:标准版和智能版。标准版支持基本的分词功能,而智能版...

    solr6.0中IK分词需要的资料

    IK分词器(Intelligent Chinese Analyzer for Solr)是针对中文的一种高效、灵活的分词工具,特别适合于Solr和Elasticsearch等全文检索引擎。在这个压缩包文件中,包含了Solr6.0使用IK分词所需的一些关键资料。 ...

    solr(中文分词器)集群

    IK分词器(Intelligent Chinese Analyzer for Solr)是针对Solr优化的中文分词工具,它支持多种分词模式,包括精确模式、全模式、关键词模式等,以满足不同场景的需求。在Solr的`schema.xml`配置文件中,你可以指定...

    搜索引擎solr环境配置、分词及索引操作

    搜索引擎solr环境配置、分词及索引操作

    Solr5.5搜索引擎之分词原理说明

    介绍了Solr5.5内部使用的分词原理,有助于开发者自定义自己的分词器时掌握分词的基础知识。

    solr中文分词器

    Solr中文分词器是Apache Solr搜索引擎系统中用于处理中文文本的核心组件,它使得Solr能够对中文文档进行有效的索引和搜索。在Solr中,分词器(Tokenizer)是分析器(Analyzer)的一部分,负责将输入的文本拆分成可被...

    solr4.1+IK中文分词

    Solr4.1 + IK中文分词是针对Apache Solr搜索引擎的一个重要组合,它使得在中文环境下进行全文检索和分析变得更加高效和精确。Apache Solr是一个开源的企业级搜索平台,基于Lucene库,提供了高性能、可扩展的全文索引...

Global site tag (gtag.js) - Google Analytics