`
leiwuluan
  • 浏览: 705042 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类

配置solr (windows) 并配中文分词 IKAnalyzer

    博客分类:
  • solr
 
阅读更多

1、下载

http://mirror.bjtu.edu.cn/apache/lucene/solr/3.5.0/

 

2、解压安装

 



 

 

创建存放solr 配置文件和索引目录

E:/solr/solr_home

 

将conf 拷到下面

E:/solr/solr_home


 

创建存放solr 项目源文件solr.war

E:/solr/solr.war   ()

将solr.war 拷到E:/solr/下


 


3、到tomcat/conf/Catalina/localhost  创建solr.xml内容如下

<Context docBase="e:/solr/solr.war" debug="0" crossContext="true" > 
	<Environment name="solr/home" type="java.lang.String" value="e:/solr/solr_home" override="true" ></Environment>
</Context>

 

启动时会有点错误、


 

 

 

解决: 打开solr_home/conf/solorconfig.xml


 

找到这一行注释了,启起,

<queryResponseWriter name="velocity" class="solr.VelocityResponseWriter" enable="${solr.velocity.enabled:true}"/>

 

 

http://localhost:8080/solr/admin/

ok


 

 

///给solr 配置中文分词(IKAnalyzer )

 

1、下载 IKAnalyzer 包。

http://ik-analyzer.googlecode.com/files/IKAnalyzer3.2.8%20bin.zip

 

 

在solrconfig.xml

<lib dir="../lib" />

在 solr_home/lib

把IKAnalyzer 考入

 

 

 

再配下\\schema.xml 的    filedType

 

 

<fieldType name="text_cn" class="solr.TextField" positionIncrementGap="100">
    <!--<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/> -->
      <analyzer type="index">
             <tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" isMaxWordLength="false"/>
             <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" />
             <filter class="solr.StandardFilterFactory"/>
             <filter class="solr.RemoveDuplicatesTokenFilterFactory"/>
      </analyzer>
      <analyzer type="query">  
             <tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" isMaxWordLength="true"/>
             <filter class="solr.StopFilterFactory" ignoreCase="false" words="stopwords.txt" enablePositionIncrements="true" />
             <filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>
             <filter class="solr.StandardFilterFactory"/>
             <filter class="solr.RemoveDuplicatesTokenFilterFactory"/>
     </analyzer>  

    </fieldType>
 

 

 

 

 

 

 

 

 

 

 

  • 大小: 4 KB
  • 大小: 13.1 KB
  • 大小: 9.5 KB
  • 大小: 3.8 KB
  • 大小: 15.7 KB
  • 大小: 21.7 KB
  • 大小: 41.6 KB
分享到:
评论

相关推荐

    ikanalyzer-solr8.4.0_solr8_solr_ikanalyzer_中文分词_

    ikanalyzer 是一个专门为Java开发的中文...总之,ikanalyzer-solr8.4.0 是 Solr 8.4.0 版本下用于中文分词的重要工具,通过合理的配置和使用,可以显著提高 Solr 对中文文本的处理能力,从而提升搜索质量和用户体验。

    Solr安装与整合中文分词IKAnalyzer

    ### Solr安装与整合中文分词IKAnalyzer #### Solr简介 Apache Solr是一款开源的全文搜索引擎平台,基于Java开发,能够提供高效的数据检索服务。它支持多种索引方式,并且能够灵活地处理各种类型的数据,包括文本、...

    适应solr5.x的中文分词IKAnalyzer

    适应solr5.x的中文分词IKAnalyzer

    solr中文分词jar包ik-analyzer 含class配置 ik-analyzer-7.5.0

    4. **与Solr的整合**:Ik Analyzer为Solr提供了专门的配置,可以无缝对接,实现对Solr索引的中文分词处理。 在实际应用中,Ik Analyzer的集成步骤大致如下: 1. **下载与解压**:获取ik-analyzer-7.5.0.jar文件,...

    ik-analyzer-solr7.zip

    IKAnalyzer在Solr中的集成使得用户可以方便地在Solr中使用它进行中文文本的预处理,包括分词、去停用词等步骤,这对于提高搜索的准确性和效率至关重要。在Solr7.x版本中,IKAnalyzer可能已经针对该版本的特性和需求...

    solr 5.4.0 完整包,包含ikanalyzer 中文分词器

    在这个版本中,Solr 5.4.0 包含了ikanalyzer,这是一个专门针对中文分词的工具,对于处理中文文本的检索和分析至关重要。 ikanalyzer 是一个基于 Java 实现的中文分词器,它主要设计用于 Lucene 和 Solr 的信息检索...

    solr5.5.x的中文分词IKAnalyzer

    标题 "solr5.5.x的中文分词IKAnalyzer" 指的是在Apache Solr 5.5.x版本中使用IKAnalyzer进行中文文本的分词处理。Solr是一款流行的开源搜索服务器,它允许对大量数据进行高效、复杂的全文检索。而中文分词是中文文本...

    solr分词 IKAnalyzer2012FF_hf1.rar

    综上所述,"solr分词 IKAnalyzer2012FF_hf1.rar" 是一个专门用于Solr的中文分词解决方案,它提供了强大的分词功能,适用于多种中文搜索和分析场景。正确配置和使用IKAnalyzer,能够显著提升Solr在处理中文内容时的...

    solr4的IK中文分词器IKAnalyzer2012FF_u1.jar和相关xml文件

    在Cloudera平台下安装Solr分词器的教程可能是指导用户如何在基于Hadoop的Cloudera环境中部署和配置Solr,包括如何将IK Analyzer集成到Solr的schema.xml文件中,以及如何启动和测试分词器。这通常涉及到添加库依赖、...

    支持solr 5.3.0的IKAnalyzer中文分词器

    IKAnalyzer中文分词器本身已经不支持最新的solr 5,集成到solr中分词会报错,这里将解决了solr 5支持问题的最新IK包共享出来,希望能帮到各位! 附上IK在schema.xml中的配置: &lt;fieldType name="text_ik" class=...

    分词器 ikanalyzer-solr6.5

    ikanalyzer-solr6.5 是一个专门为Solr 6.5版本设计的中文分词器,它基于ikanalyzer,并且进行了优化以更好地适应Solr的索引和搜索需求。ikanalyzer是一个开源的、基于Java实现的中文分词库,主要用于解决中文文本...

    solr 中文分词其IKAnalyzer 支持solr版本5.X-7.X

    1. **安装与配置**:首先,将`ikanalyzer-solr5`这样的压缩包解压,并将其中的IKAnalyzer相关的JAR文件添加到Solr的lib目录下,确保Solr启动时能加载到该分词器。 2. **配置schema.xml**:在Solr的配置文件`schema....

    solr4.7+中文分词器IK Analyzer 2012FF_hf1

    IK Analyzer 2012FF_hf1 是一个针对中文的分词器,专为处理中文文本而设计,旨在提高中文文本的索引和搜索效率。这个组合在描述中提到已经过测试,证明它们可以协同工作,为中文搜索引擎应用提供有效的支持。 Solr ...

    solr配置ikanalyzer分词文件以使用说明

    在这个说明中,我们将详细讲解如何在Solr 6.0中配置ikanalyzer分词文件,以实现对中文文本的有效处理。 1. **ikanalyzer简介** ikanalyzer是一款专门为Java语言设计的开源中文分词库,它基于Apache Lucene项目,...

    solr分词器资源 solr-ikanalyzer 资源包

    solr-ik分词器的资源包,包括:ext.dic;ikanalyzer.cfg.xml;ik-analyzer-solr5-5.x.jar;solr-analyzer-ik-5.1.0.jar;stopword.dic 五个文件

    solr6的中文分词器ik-analyzer-solr-6.0.jar

    solr6的中文分词器ik-analyzer-solr-6.0.jar,在solr上亲测可用

    solr4.X所用IKAnalyzer中文分词器jar包

    总的来说,IKAnalyzer中文分词器为Solr4.X提供了强大的中文处理能力,通过合理配置和使用,可以极大地提升中文搜索的质量和效率。在实际应用中,用户可以根据自身需求进行定制化配置,以满足特定场景的分词要求。

    solr6.x的IKAnalyzer配置智能分词

    Solr是Apache Lucene项目的一个开源搜索引擎服务器,它提供了全文检索、...总之,配置IKAnalyzer智能分词对于提升Solr在处理中文数据时的检索效果至关重要。理解并正确配置这些步骤,可以显著改善你的搜索引擎的性能。

    ikanalyzer-solr5

    总之,ikanalyzer-solr5 是为了满足 Solr 用户对中文分词的需求而设计的,它简化了 Solr 中文处理的集成过程,并提供了灵活的配置选项,以便更好地适应各种文本分析场景。通过正确配置和使用,ikanalyzer 可以显著...

    ikanalyzer-solr.zip

    然而,Solr默认并不支持中文分词,这就需要借助于ikanalyzer这样的插件来实现。 ikanalyzer是一款优秀的开源中文分词库,由北京大学信息科学技术学院开发。它基于Java实现,遵循Apache软件基金会的License,可以...

Global site tag (gtag.js) - Google Analytics