-
关于在Solr中配置org.apache.lucene.analysis.standard.StandardAnalyzer中文分词器???3
我想在solr中配置一个分词器,他能将一句中文切分成一个字一个字的,那我自然就想到了lucene中的这个标准的分词器:org.apache.lucene.analysis.standard.StandardAnalyzer,我在相应的schema.xml文件里面只这样配置的:
<fieldType name="text" class="solr.TextField">
<analyzer type="index">
<tokenizer class="org.apache.lucene.analysis.standard.StandardAnalyzer"/>
</analyzer>
<analyzer type="query">
<tokenizer class="org.apache.lucene.analysis.standard.StandardAnalyzer"/>
</analyzer>
</fieldType>
当然lucen-core-3.5.0.jar已经被我拖进相应的lib里面了。
可是这样配置,启动solr服务后,在打开solr管理页面http://localhost:8983/solr/会出错:
org.apache.solr.common.SolrException: Error instantiating class: 'org.apache.lucene.analysis.standard.StandardAnalyzer'
。。。。。
Caused by: java.lang.InstantiationException: org.apache.lucene.analysis.standard.StandardAnalyzer
at java.lang.Class.newInstance0(Unknown Source)
at java.lang.Class.newInstance(Unknown Source)
at org.apache.solr.core.SolrResourceLoader.newInstance(SolrResourceLoader.java:412)
... 39 more
我之前用过IK分词器是能正常工作的,但是现在不知道该怎样配置这个StandardAnalyzer了。
我该怎样做呢?
2012年3月22日 22:34
目前还没有答案
相关推荐
solr的IK分词器JAR及配置文件 jar包和配置文件的放置位置不一样,详情可搜索 IK Analyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包。 org.wltea.analyzer.lucene.IKAnalyzer jar
Solr中文分词器是针对Apache Solr全文检索引擎在处理中文文本时的不足而设计的一种解决方案。Solr默认的分词策略主要针对英文文本,它以空格为分隔符进行分词,而对于中文这种没有明显分隔符的语言,就需要特定的...
Lucene包含了一系列分词器(Tokenizers)和过滤器(Filters),可以处理各种语言和格式的文本,确保搜索的准确性。索引过程则是将这些分词结果转化为可快速查询的数据结构,比如倒排索引,这大大提高了搜索速度。...
在Solr中使用中文分词器需要在配置文件中指定。通常在`schema.xml`或`managed-schema`中定义字段类型(FieldType),并设置对应的分词器。例如,使用IK Analyzer: ```xml <fieldType name="text_ik" class="solr....
IK Analyzer是一个广泛使用的开源中文分词器,尤其在搜索引擎领域,如Apache Solr和Elasticsearch中,它扮演着关键的角色。本项目"ik-analyzer-solr5-master.zip"是IK Analyzer针对Solr5的特别修正版,确保与该版本...
中文分词是Solr5处理中文文档的关键步骤,因为中文句子不像英文那样有明显的空格分隔单词,需要通过分词器来将连续的汉字序列切分成有意义的词汇单元。本篇文章将深入探讨在Solr5中配置中文分词的过程。 首先,我们...
中文分词器ik-analyzer-solr5-5.x.jar,已经打包好,直接用就可以 2积分不黑心
这里,`<tokenizer class="org.apache.lucene.analysis.cn.ik.IKTokenizerFactory"`指定了使用IK Analyzer作为分词器,`useSmart="true"`和`useSmart="false"`分别代表索引和查询时的分词模式。 接着,我们可以在...
在Solr6.x中集成IK中文分词器,需要完成以下步骤: 1. 下载IK分词器的对应版本,确保与Solr6.x兼容。 2. 将下载的`solr6.x_IK中文分词工具`解压,将`lib`目录下的jar文件复制到Solr的`server/solr-webapp/webapp/...
IK Analyzer,全称为“IntelligentKeyword Analyzer”,是一个为Java设计的高性能中文分词器。它最初是基于Lucene的Analyzer实现,现在也支持Solr等其他搜索框架。IK Analyzer以其优秀的分词效果和高度可扩展性著称...
标题 "solr5.5.x的中文分词IKAnalyzer" 指的是在Apache Solr 5.5.x版本中使用IKAnalyzer进行中文文本的分词处理。Solr是一款流行的开源搜索服务器,它允许对大量数据进行高效、复杂的全文检索。而中文分词是中文文本...
描述中提到的"solr中文分词器 IKAnalyzer 支持solr版本5.x到7.x 亲测可用,我用的是7.2版本"进一步证实了IKAnalyzer在Solr 7.2版本中的实际应用,这为其他用户提供了信心,确保了在不同Solr版本下的稳定运行。...
总的来说,iK分词器在Solr 4中的应用涉及到对中文文本的高效处理,通过自定义词典和插件机制,可以实现对复杂文本的精准分词,从而提升全文检索的效果。而"iK分词器【solr4版本】.zip"这个压缩包提供了一整套针对...
IKAnalyzer中文分词器本身已经不支持最新的solr 5,集成到solr中分词会报错,这里将解决了solr 5支持问题的最新IK包共享出来,希望能帮到各位! 附上IK在schema.xml中的配置: <fieldType name="text_ik" class="...
在描述中提到的"ik-analyzer-solr7.zip"是一个专门为Apache Solr 7.x版本定制的IKAnalyzer分词器插件。Solr是Apache软件基金会的一个项目,它是一款强大的全文搜索服务器,提供了诸如索引、搜索、高亮显示、拼写检查...
配置IK分词器是Solr用于处理中文的关键步骤,下面将详细介绍如何在Solr 6.4.1中配置IK分词器。 首先,你需要下载并解压提供的压缩包 "solr6.4.1 IK分词",其中可能包含了IK分词器的jar包以及相关的配置文件。这些...
3. **配置Solr核心**:接下来,你需要在你的Solr核心(collection)配置文件`solrconfig.xml`中添加IK分词器的相关配置。在`<requestHandler>`或者`<searchComponent>`部分添加以下代码: ```xml <filter class="...
在Solr 5.4版本中,对中文分词的支持是通过特定的分词器实现的。本文将详细介绍如何在Solr 5.4中配置中文分词库。 首先,"Solr5.4中文分词"这个标题表明我们关注的是针对Solr 5.4的一个特定分词解决方案。这通常...