`
lp895876294
  • 浏览: 284863 次
  • 性别: Icon_minigender_1
  • 来自: 济南
社区版块
存档分类
最新评论

solr+IKAnalyzer部署

 
阅读更多

solr:选用最新solr版本4.8.1。

中文分词工具:备选有庖丁分词和IKAnalyzer。IKAnalyzer在分词效率上比庖丁分词要差,但是在分词模式(智能分词、细粒度分词)、分词个数、中英文数字汉子分词、词库扩展性和对lucene的支持都比庖丁分词要强。庖丁分词最新版本3.0只能支持lucene3.6,IKAnalyzer_2012FF_hf1支持lucene4.8.1。最终使用IKAnalyzer作为中文分词工具。

Servlet容器:选择tomcat7,jdk1.7.0。

部署步骤:

1.solr部署。

        将solr-4.8.1\dist\solr-4.8.1.war放到tomcat7的webapps目录下,并改名为solr.war。也可以将solr.war改名为solr.zip,解压后放到webapps下。

2.solr日志配置。

      首先添加日志需要的jar包,将solr-4.8.1\example\lib\ext下的所有jar包复制到tomcat\webapps\solr\WEB-INF的lib目录中。

      然后在webapps\solr\WEB-INF下新建classes文件夹,将solr-4.8.1\example\resources\log4j.properties放入classes目录下。

      修改log4j.properties 文件日志:log4j.appender.file.File=../webapps/solr/solr.log,使日志文件存放于webapps\solr目录下。

注:为solr添加日志和修改日志的配置主要为了能够将与solr相关的信息放到一起,便于以后查看和维护。

3.solr索引配置。

       在webapps\solr下新建solr_home文件夹,将solr-4.8.1\example\solr文件夹的内容放入。

       在webapps\solr\WEB-INF\web.xml中指定solr索引文件的位置,如下配置:

 

<env-entry>
       <env-entry-name>solr/home</env-entry-name>
       <env-entry-value>..\webapps\solr\solr_home</env-entry-value>
	   <env-entry-type>java.lang.String</env-entry-type>
    </env-entry>

注:tomcat通过bin\startup.bat或startup.sh启动,当前目录就是tomcat\bin,项目配置文件的目录也是相对于当前目录,因此如果需要指定文件目录,就是用“..\”返回到tomcat根目录。

 

4.中文分词配置。

        将IKAnalyzer分词所需要的jar包IKAnalyzer2012FF_u1.jar放入webapps\solr\WEB-INF\lib下。

        IKAnalyzer配置文件IKAnalyzer.cfg.xml和stopword.dic放入webapps\solr\WEB-INF\classes目录下。

        在webapps\solr\solr_home\collection1\conf\schema.xml中添加IKAnalyzer配置,如下:

       

<fieldType name="text_ik" class="solr.TextField">
		<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>	
	</fieldType>
	<field name="index_text" type="text_ik" indexed="true" stored="true" multiValued="false" />

 注:field标签的name属性的值不能与已有field标签name属性值相同,否则tomcat启动会报错。

       按照如上IKAnalyzer配置,IKAnalyzer分词是细粒度分词,但是一般为了减小索引文件的大小,在建立索引时才会使用智能分词,在查询索引时使用细粒度分词,所以需要分别为建立索引和查询索引指定不同的分词模式,详见如下:

<fieldType name="text_ik" class="solr.TextField">
		<analyzer type="index" class="org.wltea.analyzer.lucene.IKAnalyzer" userSmart="true"/>
		<analyzer type="query" class="org.wltea.analyzer.lucene.IKAnalyzer" userSmart="false"/>		
	</fieldType>

       但是在IKAnalyzer_2012FF_hf1版本的IKAnalyzer类中没有读取配置中的useSmart属性,所以在建立索引和查询索引中都使用的是细粒度分词。网上也有了对此问题的解决方案,但是基本上都是通过修改源代码方式解决。

       考虑到以后代码的更新和维护等,没有采用修改IKAnalyzer源代码。而是新建了一个JAVA项目,并创建了两个类IKAnalyzerWithSmart(默认智能分词)和IKAnalyzerWithoutSmart(默认细粒度分词),源代码和IKAnalyzer代码相同,只是分别将userSmart设置为true和false。最后将项目导出为jar包,见附件:IKAnalyzer2012FF_u1_smart.jar。

       将IKAnalyzer2012FF_u1_smart.jar放入webapps\solr\WEB-INF\lib目录下,并修改schema.xml文件内容如下,这样就能够在创建索引时使用智能分词,在查询索引时使用细粒度分词。

<fieldType name="text_ik" class="solr.TextField">
		<analyzer type="index" class="org.wltea.analyzer.lucene.IKAnalyzerWithSmart"/>
		<analyzer type="query" class="org.wltea.analyzer.lucene.IKAnalyzerWithoutSmart"/>		
	</fieldType>

5.总结。solr、solr日志、索引文件和分词都已经放到了一个目录下,项目迁移也不用修改相关配置,直接就可以启动。已将配置好的solr4.8.1见附件“solr4.8.1-已配置.rar”,解压后放到tomcat7\webapps目录下,启动tomcat7即可。IKAnalyzer分词工具见附件IK Analyzer 2012FF_hf1.rar。

分享到:
评论

相关推荐

    solr+IK Analyzer

    2. **配置分析器**:在Solr的schema.xml文件中,配置默认的分析器为IKAnalyzer,指定词典路径。 3. **重启Solr**:完成配置后,重启Solr服务使改动生效。 4. **测试验证**:创建或更新索引,然后通过Solr的Admin UI...

    tomcat8.5+solr7+IKAnalyzer5

    标题"tomcat8.5+solr7+IKAnalyzer5"指出这是一个集成项目,其中包含了三个关键组件:Tomcat 8.5版本,Solr 7版本,以及IKAnalyzer 5版本。Tomcat是Apache软件基金会的一个开源项目,用作Java Servlet和JavaServer ...

    tomcat8.5+solr7+IKAnalyzer5+ikpinyin直装版

    【标题】"tomcat8.5+solr7+IKAnalyzer5+ikpinyin直装版" 提供了一个集成的搜索引擎环境,其中包含了Tomcat 8.5作为应用服务器,Solr 7作为核心搜索引擎,以及IKAnalyzer5和ikpinyin这两个中文分词插件。这个组合特别...

    solr+IK分词集成tomcat实现全文检索

    Tomcat是一款轻量级应用服务器,广泛用于部署Java Web应用程序,包括Solr。以下是一般的集成步骤: 1. **安装Tomcat**:下载并解压Tomcat最新稳定版本,配置好环境变量,确保能够正常启动。 2. **下载Solr**:从...

    solr 5.0.0 + tomcat7 安装 + IKAnalyzer中文分词

    在这个过程中,我们将详细介绍如何在Tomcat7上安装Solr 5.0.0,并结合IKAnalyzer实现中文分词。 首先,我们需要下载Solr 5.0.0的压缩包和Tomcat7。确保你的系统已经安装了Java开发环境(JDK),因为Solr和Tomcat都...

    tomcat8+solr7.4+IK

    【标题】"Tomcat8+Solr7.4+IK"是一个在Linux环境下搭建的搜索引擎解决方案,其中包含了Apache Tomcat 8作为应用服务器,Solr 7.4作为搜索引擎核心,以及IK Analyzer作为中文分词工具。这个配置适用于需要处理大量...

    solr 5.4.0 完整包,包含ikanalyzer 中文分词器

    6. 部署 ikanalyzer,将相应的 JAR 文件放入 Solr 的 `lib` 目录下,或者在 `solrconfig.xml` 中指定类路径。 7. 配置 `schema.xml` 文件,定义字段类型和字段,使用 ikanalyzer 作为中文字段的分词器。 8. 导入数据...

    solr-4.10.3+ik分词器

    添加或修改相应的分析器设置,比如设置默认的查询分析器和索引分析器为IKAnalyzer。重启Solr服务后,分词器就会生效。 在实际应用中,你可能还需要自定义索引字段,设置分词策略,甚至为IK分词器配置扩展词库,以...

    solr4.7+中文分词器IK Analyzer 2012FF_hf1

    4. **启动 Solr**:解释如何启动 Solr 服务,并确保 IK Analyzer 正常加载。 5. **测试分词器**:提供使用 Solr 的 `analysis` 界面检查 IK Analyzer 分词效果的方法。 6. **数据导入**:介绍如何导入数据到 Solr 并...

    IKAnalyzer2012FF_hf1.zip

    标题中的"IKAnalyzer2012FF_hf1.zip"指的是IK Analyzer的2012年最终版(Final)的高频率更新1(Hot Fix 1)。IK Analyzer是一款开源的、基于Java语言开发的轻量级中文分词器,主要用于Java环境下对中文文本的分词...

    solr_5.0_tomcat7_IKAnalyzer中文分词安装及demo

    在这个"solr_5.0_tomcat7_IKAnalyzer中文分词安装及demo"的压缩包中,你将找到如何在Solr 5.0中集成IKAnalyzer并进行演示的详细步骤。 首先,我们需要了解Solr与IKAnalyzer的集成过程: 1. **下载和解压**:获取...

    IKAnalyzer.Solr

    3. IKAnalyzer3.2.8_bin.zip:这是版本号为3.2.8的二进制包,"bin"通常包含了可执行文件和其他运行所需文件,适合直接部署使用。 在使用这些IKAnalyzer版本时,你需要根据你的Solr版本和实际需求选择合适的版本进行...

    IKAnalyzer2012_u6

    这些文件有助于开发者快速理解和部署IKAnalyzer,例如,词典文件(dict)用于定义和更新分词规则,配置文件(如ikAnalyzer.cfg.xml)用于设置分词器的行为,而示例代码可以帮助初学者了解如何在实际项目中集成和使用...

    solr全文检索+IK分词器

    而IK分词器(Intelligent Chinese Analyzer for Solr)则是专门为Solr设计的中文分词组件,能有效地对中文文本进行切词,提升搜索的准确性和召回率。 **Solr全文检索** Solr的核心功能是全文检索,它基于倒排索引...

    solr4的IK中文分词器IKAnalyzer2012FF_u1.jar和相关xml文件

    "solr4的IK中文分词器IKAnalyzer2012FF_u1.jar和相关xml文件"是用于优化Solr在处理中文内容时的关键组件。 IKAnalyzer2012FF_u1.jar是一个Java库,它是IK Analyzer的一个版本,专门设计用于中文分词。IK Analyzer是...

    IKanalyzer2012.rar

    - **配置文件**:IK Analyzer的配置文件(如`IKAnalyzer.cfg.xml`)中包含了字典路径、停用词表等信息,需要根据实际部署环境进行正确设置。 - **字典更新**:当遇到新的词汇或需要调整分词效果时,可以通过修改字典...

    ikanalyzer-solr7.7.2.zip

    标题中的"ikanalyzer-solr7.7.2.zip"是一个压缩包,包含了与Solr 7.7.2版本集成的ikanalyzer,一个专为中文分词设计的开源分析器。这个压缩包旨在帮助用户在Java 1.8环境下,结合Tomcat 8.5服务器来部署和运行Solr,...

Global site tag (gtag.js) - Google Analytics