1、下载
http://mirror.bjtu.edu.cn/apache/lucene/solr/3.5.0/
2、解压安装
创建存放solr 配置文件和索引目录
E:/solr/solr_home
将conf 拷到下面
E:/solr/solr_home
创建存放solr 项目源文件solr.war
E:/solr/solr.war ()
将solr.war 拷到E:/solr/下
3、到tomcat/conf/Catalina/localhost 创建solr.xml内容如下
<Context docBase="e:/solr/solr.war" debug="0" crossContext="true" >
<Environment name="solr/home" type="java.lang.String" value="e:/solr/solr_home" override="true" ></Environment>
</Context>
启动时会有点错误、
解决: 打开solr_home/conf/solorconfig.xml
找到这一行注释了,启起,
<queryResponseWriter name="velocity" class="solr.VelocityResponseWriter" enable="${solr.velocity.enabled:true}"/>
http://localhost:8080/solr/admin/
ok
///给solr 配置中文分词(IKAnalyzer
)
1、下载 IKAnalyzer 包。
http://ik-analyzer.googlecode.com/files/IKAnalyzer3.2.8%20bin.zip
在solrconfig.xml
<lib dir="../lib" />
在 solr_home/lib
把IKAnalyzer 考入
再配下\\schema.xml 的 filedType
<fieldType name="text_cn" class="solr.TextField" positionIncrementGap="100">
<!--<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/> -->
<analyzer type="index">
<tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" isMaxWordLength="false"/>
<filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" />
<filter class="solr.StandardFilterFactory"/>
<filter class="solr.RemoveDuplicatesTokenFilterFactory"/>
</analyzer>
<analyzer type="query">
<tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" isMaxWordLength="true"/>
<filter class="solr.StopFilterFactory" ignoreCase="false" words="stopwords.txt" enablePositionIncrements="true" />
<filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>
<filter class="solr.StandardFilterFactory"/>
<filter class="solr.RemoveDuplicatesTokenFilterFactory"/>
</analyzer>
</fieldType>
- 大小: 4 KB
- 大小: 13.1 KB
- 大小: 9.5 KB
- 大小: 3.8 KB
- 大小: 15.7 KB
- 大小: 21.7 KB
- 大小: 41.6 KB
分享到:
相关推荐
ikanalyzer 是一个专门为Java开发的中文...总之,ikanalyzer-solr8.4.0 是 Solr 8.4.0 版本下用于中文分词的重要工具,通过合理的配置和使用,可以显著提高 Solr 对中文文本的处理能力,从而提升搜索质量和用户体验。
### Solr安装与整合中文分词IKAnalyzer #### Solr简介 Apache Solr是一款开源的全文搜索引擎平台,基于Java开发,能够提供高效的数据检索服务。它支持多种索引方式,并且能够灵活地处理各种类型的数据,包括文本、...
适应solr5.x的中文分词IKAnalyzer
4. **与Solr的整合**:Ik Analyzer为Solr提供了专门的配置,可以无缝对接,实现对Solr索引的中文分词处理。 在实际应用中,Ik Analyzer的集成步骤大致如下: 1. **下载与解压**:获取ik-analyzer-7.5.0.jar文件,...
IKAnalyzer在Solr中的集成使得用户可以方便地在Solr中使用它进行中文文本的预处理,包括分词、去停用词等步骤,这对于提高搜索的准确性和效率至关重要。在Solr7.x版本中,IKAnalyzer可能已经针对该版本的特性和需求...
在这个版本中,Solr 5.4.0 包含了ikanalyzer,这是一个专门针对中文分词的工具,对于处理中文文本的检索和分析至关重要。 ikanalyzer 是一个基于 Java 实现的中文分词器,它主要设计用于 Lucene 和 Solr 的信息检索...
标题 "solr5.5.x的中文分词IKAnalyzer" 指的是在Apache Solr 5.5.x版本中使用IKAnalyzer进行中文文本的分词处理。Solr是一款流行的开源搜索服务器,它允许对大量数据进行高效、复杂的全文检索。而中文分词是中文文本...
综上所述,"solr分词 IKAnalyzer2012FF_hf1.rar" 是一个专门用于Solr的中文分词解决方案,它提供了强大的分词功能,适用于多种中文搜索和分析场景。正确配置和使用IKAnalyzer,能够显著提升Solr在处理中文内容时的...
在Cloudera平台下安装Solr分词器的教程可能是指导用户如何在基于Hadoop的Cloudera环境中部署和配置Solr,包括如何将IK Analyzer集成到Solr的schema.xml文件中,以及如何启动和测试分词器。这通常涉及到添加库依赖、...
IKAnalyzer中文分词器本身已经不支持最新的solr 5,集成到solr中分词会报错,这里将解决了solr 5支持问题的最新IK包共享出来,希望能帮到各位! 附上IK在schema.xml中的配置: <fieldType name="text_ik" class=...
ikanalyzer-solr6.5 是一个专门为Solr 6.5版本设计的中文分词器,它基于ikanalyzer,并且进行了优化以更好地适应Solr的索引和搜索需求。ikanalyzer是一个开源的、基于Java实现的中文分词库,主要用于解决中文文本...
1. **安装与配置**:首先,将`ikanalyzer-solr5`这样的压缩包解压,并将其中的IKAnalyzer相关的JAR文件添加到Solr的lib目录下,确保Solr启动时能加载到该分词器。 2. **配置schema.xml**:在Solr的配置文件`schema....
IK Analyzer 2012FF_hf1 是一个针对中文的分词器,专为处理中文文本而设计,旨在提高中文文本的索引和搜索效率。这个组合在描述中提到已经过测试,证明它们可以协同工作,为中文搜索引擎应用提供有效的支持。 Solr ...
在这个说明中,我们将详细讲解如何在Solr 6.0中配置ikanalyzer分词文件,以实现对中文文本的有效处理。 1. **ikanalyzer简介** ikanalyzer是一款专门为Java语言设计的开源中文分词库,它基于Apache Lucene项目,...
solr-ik分词器的资源包,包括:ext.dic;ikanalyzer.cfg.xml;ik-analyzer-solr5-5.x.jar;solr-analyzer-ik-5.1.0.jar;stopword.dic 五个文件
solr6的中文分词器ik-analyzer-solr-6.0.jar,在solr上亲测可用
总的来说,IKAnalyzer中文分词器为Solr4.X提供了强大的中文处理能力,通过合理配置和使用,可以极大地提升中文搜索的质量和效率。在实际应用中,用户可以根据自身需求进行定制化配置,以满足特定场景的分词要求。
Solr是Apache Lucene项目的一个开源搜索引擎服务器,它提供了全文检索、...总之,配置IKAnalyzer智能分词对于提升Solr在处理中文数据时的检索效果至关重要。理解并正确配置这些步骤,可以显著改善你的搜索引擎的性能。
总之,ikanalyzer-solr5 是为了满足 Solr 用户对中文分词的需求而设计的,它简化了 Solr 中文处理的集成过程,并提供了灵活的配置选项,以便更好地适应各种文本分析场景。通过正确配置和使用,ikanalyzer 可以显著...
然而,Solr默认并不支持中文分词,这就需要借助于ikanalyzer这样的插件来实现。 ikanalyzer是一款优秀的开源中文分词库,由北京大学信息科学技术学院开发。它基于Java实现,遵循Apache软件基金会的License,可以...