- 浏览: 269922 次
- 性别:
- 来自: 天津
文章分类
- 全部博客 (183)
- oracle (4)
- informix (1)
- web开发 (6)
- java (49)
- hibernate (1)
- hadoop (1)
- spring (23)
- 非技术 (8)
- ibatis2 (5)
- Linux (6)
- tomcat (14)
- nginx (7)
- dubbo (3)
- myibatis (7)
- webservice 开发 (2)
- mysql (2)
- svn (2)
- redis (7)
- 分布式技术 (17)
- zookeeper (2)
- kafka (2)
- velocity (1)
- maven (7)
- js (1)
- freemarker (1)
- Thymeleaf (3)
- 代码审计 (1)
- ibatis3 (1)
- rabbitmq (1)
最新评论
1.将下载来的solr-5.0.0.zip解压。
创建D:\mysoftsetup\solrserver目录,复制solr-5.0.0\server\solr下所有文件到D:\mysoftsetup\solrserver,
复制Tomcat 到 D:\mysoftsetup\solrserver 目录
把solr-5.0.0\server\webapps\solr.war放到tomcat的webapps目录下;启动tomcat自动解压得到solr文件夹。
把solr-5.0.0\server\lib\ext下所有的jar,复制到刚才得到的solr文件夹下的WEB-INF\lib目录下。
把solr-5.0.0\server\resources\log4j.properties复制到webapps\solr\WEB-INF\classes目录下。
修改webapps\solr\WEB-INF\web.xml的:
<env-entry>
<env-entry-name>solr/home</env-entry-name>
<env-entry-value>../../solr</env-entry-value>
<env-entry-type>java.lang.String</env-entry-type>
</env-entry>
指定solr/home为../../solr目录(其实就是:D:\mysoftsetup\solrserver目录中的solr)。
启动tomcat ,访问http://localhost:8393
查看信息:
建立core
把D:\mysoftsetup\solr-5.0.0\example\techproducts\solr\techproducts 复制到D:\mysoftsetup\solrserver\solr 中,techproducts修改为shop_goods,重新启动tomcat
2.使用ik和smartcn 中文分词
复制 solr-5.0.0\contrib\analysis-extras\lucene-libs 下的jar 到Tomcat 中solr/WEB-INF\lib 中,把附件中ik-analyzer-solr5-5.x.jar 也要复制到Tomcat 中solr/WEB-INF\lib 中
3.修改shop_goods中的schema.xml 中添加ik和smartcn 的配置
<fieldType name="text_smart" class="solr.TextField" positionIncrementGap="100">
<analyzer type="index">
<tokenizer class="solr.SmartChineseSentenceTokenizerFactory"/>
<filter class="solr.SmartChineseWordTokenFilterFactory"/>
</analyzer>
<analyzer type="query">
<tokenizer class="solr.SmartChineseSentenceTokenizerFactory"/>
<filter class="solr.SmartChineseWordTokenFilterFactory"/>
</analyzer>
</fieldType>
<field name="text_smart_ceshi" type="text_smart" indexed="true" stored="true" multiValued="true"/>
<fieldType name="text_ik" class="solr.TextField">
<analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
<analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>
<field name="text_ik_ceshi" type="text_ik" indexed="true" stored="true" multiValued="true"/>
4.重启tomcat测试切词
在左侧选择shop_goods,然后单击“analysis”
测试ik 分词:在Analyse Fieldname / FieldType 中选择“text_ik”,效果如图:
测试smark-cn 分词:在Analyse Fieldname / FieldType 中选择“text_smart”,效果如图:
shop_goods.rar 为配置好的core
创建D:\mysoftsetup\solrserver目录,复制solr-5.0.0\server\solr下所有文件到D:\mysoftsetup\solrserver,
复制Tomcat 到 D:\mysoftsetup\solrserver 目录
把solr-5.0.0\server\webapps\solr.war放到tomcat的webapps目录下;启动tomcat自动解压得到solr文件夹。
把solr-5.0.0\server\lib\ext下所有的jar,复制到刚才得到的solr文件夹下的WEB-INF\lib目录下。
把solr-5.0.0\server\resources\log4j.properties复制到webapps\solr\WEB-INF\classes目录下。
修改webapps\solr\WEB-INF\web.xml的:
<env-entry>
<env-entry-name>solr/home</env-entry-name>
<env-entry-value>../../solr</env-entry-value>
<env-entry-type>java.lang.String</env-entry-type>
</env-entry>
指定solr/home为../../solr目录(其实就是:D:\mysoftsetup\solrserver目录中的solr)。
启动tomcat ,访问http://localhost:8393
查看信息:
建立core
把D:\mysoftsetup\solr-5.0.0\example\techproducts\solr\techproducts 复制到D:\mysoftsetup\solrserver\solr 中,techproducts修改为shop_goods,重新启动tomcat
2.使用ik和smartcn 中文分词
复制 solr-5.0.0\contrib\analysis-extras\lucene-libs 下的jar 到Tomcat 中solr/WEB-INF\lib 中,把附件中ik-analyzer-solr5-5.x.jar 也要复制到Tomcat 中solr/WEB-INF\lib 中
3.修改shop_goods中的schema.xml 中添加ik和smartcn 的配置
<fieldType name="text_smart" class="solr.TextField" positionIncrementGap="100">
<analyzer type="index">
<tokenizer class="solr.SmartChineseSentenceTokenizerFactory"/>
<filter class="solr.SmartChineseWordTokenFilterFactory"/>
</analyzer>
<analyzer type="query">
<tokenizer class="solr.SmartChineseSentenceTokenizerFactory"/>
<filter class="solr.SmartChineseWordTokenFilterFactory"/>
</analyzer>
</fieldType>
<field name="text_smart_ceshi" type="text_smart" indexed="true" stored="true" multiValued="true"/>
<fieldType name="text_ik" class="solr.TextField">
<analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
<analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>
<field name="text_ik_ceshi" type="text_ik" indexed="true" stored="true" multiValued="true"/>
4.重启tomcat测试切词
在左侧选择shop_goods,然后单击“analysis”
测试ik 分词:在Analyse Fieldname / FieldType 中选择“text_ik”,效果如图:
测试smark-cn 分词:在Analyse Fieldname / FieldType 中选择“text_smart”,效果如图:
shop_goods.rar 为配置好的core
- solrserver.rar (1.1 MB)
- 下载次数: 1
- shop_goods.rar (16.4 KB)
- 下载次数: 2
发表评论
-
solr 5.0 集群搭建
2018-01-13 14:55 599一,搭建zookeeper集群 1.下载zookeeper解压 ... -
elasticsearch环境搭建和api编程
2017-12-28 16:40 8861.下载 Elasticsearch ,下载地址:https: ... -
eureka 服务搭建
2017-11-07 16:59 6631.新建一个springboot的项目。 2.添加pom.xm ... -
修改dubbox支持sping4
2017-09-12 09:03 4771.通过修改依赖jar包和修改部分代码,使dubbox可以在s ... -
solr 4.9 学习
2017-09-05 11:04 4761.下载solr 4.9.0 下载地址 ... -
jenkins自动构建发布程序
2017-08-31 10:28 16151.首先到 https://jenkins.io/ 下载win ... -
FastDFS分布式文件系统使用
2017-08-30 10:28 637安装参照: http://blog.csdn.net/hard ... -
RocketMQ 3.2.6 web监控程序
2017-08-04 14:09 6121.针对 rocketmq3.2.6监控代码在附件中 2. ... -
RocketMQ 3.2.6安装以及测试
2017-08-02 16:34 1692下载 alibaba-rocketmq-3.2.6.tar.g ... -
roketmq3.2.6
2017-04-20 15:30 431roketmq3.2.6 设置 #设置rocketmq的地址 ... -
uncode-schedule 学习
2017-04-11 16:34 574在多台机器都存在定时任务时,通过zookeeper 实现定 ... -
分布式锁 zookeeper
2017-04-06 11:27 402package zk.lock; import ja ... -
分布式锁实现两种方式
2017-03-16 17:13 554package org.gjp; import ja ... -
disconf使用
2017-03-07 10:33 696disconf 已经搭建成功(http://gjp014. ... -
disconf安装过程
2017-03-06 15:49 7031.首先下载 https://github.com/kn ... -
curator 实现分布式锁
2017-02-08 16:20 550package org.gjp; import j ...
相关推荐
当我们谈论"IK分词solr5.0.0"时,我们关注的是如何在Solr 5.0.0版本中集成和使用IK分词器。 首先,IK分词器全称为“Intelligent Chinese Analyzer for Solr”,由北京大学的开源社区开发,旨在提供对中文文本更精确...
通过这个详细的安装和演示步骤,你可以掌握如何在Solr 5.0环境中集成IKAnalyzer进行中文分词处理。这将有助于优化对中文文本的搜索性能,提高用户搜索体验。记得在实际应用中根据自己的需求调整配置,以适应不同的...
将这个JAR文件添加到Solr的lib目录下,可以让Solr使用IK分词器进行中文分词处理。 **深蓝词库转换.exe** 深蓝词库转换工具可能是用来将词库文件转换成适合IK Analyzer或其他分词器使用的格式。词库对于分词器来说...
solr5.0.0 所需jar包,包含solr-dataimportscheduler-1.0,solr-dataimporthandler-5.0.0,solr-dataimporthandler-extras-5.0.0,solr-analyzer-extra-5.1.0,IKAnalyzer-5.0,mysql-connector-java-5.1.35
标题中的"IKAnalyzer-5.0.jar"和"solr-analyzer-extra-5.3.jar"是两个在中文搜索引擎系统Solr中常见的组件,主要用于处理中文分词问题。这两个组件在构建高性能的中文搜索解决方案中扮演着至关重要的角色。 首先,...
几种分词工具都试过,对于中文来说的的话个人觉得IKAnalyzer 最好用,不同版本的IKAnalyzer jar包,包括IKAnalyzer6.5.0、IKAnalyzer5.0、IKAnalyzer2012,IKAnalyzer6.5.0可完美兼容Lucene6+,IKAnalyzer5.0兼容...
本篇将详细介绍IKAnalyzer-5.0.jar和solr-analyzer-extra-5.3.jar这两个Solr的IK分词器组件及其功能。 首先,IKAnalyzer-5.0.jar是IK分词器的主要核心库,由开源社区维护和更新。这个版本的IKAnalyzer支持词典动态...
"IK中文分词器 支持solr5.0 以上版本"这一描述意味着该分词器不仅兼容较早的Solr 5.0,还能够适应后续的更新版本,为用户提供了良好的向前兼容性,确保在不断升级的搜索环境中保持稳定运行。 IK Analyzer自诞生以来...
ik-analyzer分词器,支持solr5-5.x
总的来说,IKAnalyzer 5.0为Java开发人员提供了一种高效且灵活的中文分词解决方案,尤其适合需要与Solr 5.5.4以下版本或Lucene 5.0配合使用的项目。通过对分词策略的定制和优化,可以显著提升文本处理的性能和准确性...
IKAnalyzer5.0与Solr5.x的集成,使得用户能够在Solr中使用IKAnalyzer进行中文分词,提升搜索准确性和效率。 4. **stopword.dic**: 这个文件是停用词表,包含了一些常见的无实际意义或者对搜索结果影响不大的词汇,...
在描述中提到,“solr在使用ik分词器时,5.x以上版本必须使用ik-analyzer-solr5-5.x.jar这个jar包”,这意味着在Solr 5.0及以上版本中,为了使IK分词器正常工作,你需要引入这个特定的jar包。 **IK分词器详解:** ...
在这个过程中,我们将详细介绍如何在Tomcat7上安装Solr 5.0.0,并结合IKAnalyzer实现中文分词。 首先,我们需要下载Solr 5.0.0的压缩包和Tomcat7。确保你的系统已经安装了Java开发环境(JDK),因为Solr和Tomcat都...
IK Analyzer 5.0 版本是对这个工具的最新优化和升级,以提供更高的分词效率和更准确的分词结果。 IK Analyzer 的主要特点包括: 1. **动态词典加载**:IK 分词器支持动态加载自定义词典,用户可以根据业务需求添加...
然而,随着Solr版本的升级,原有的IkAnalyzer在某些高版本中可能存在只能进行最小粒度分词的问题,这可能会影响到搜索的精确性和效率。 "IkAnalyzer_5.1_extra"正是为了解决这个问题而推出的,它专为Solr 5.0及以上...
7. **与Lucene和Solr的集成**:由于IKAnalyzer最初是为了配合Apache Lucene和Solr等搜索框架而设计,因此与这些系统有良好的兼容性和集成性,便于在搜索引擎开发中使用。 8. **API使用**:在Java项目中,可以通过...
课时09:ik分词器扩展词和停顿词动态加载演示 课时10:ik分词器获取扩展词后的使用 课时11:创建产品表加上ik分词器,导入单个文档 课时12:实战es的java客户端 课时13:es的java客户端5.0与spring整合 课时14:es的...
总的来说,Solr-Solrj 5.0.0是Java开发者与Solr集成的有力工具,尤其在处理中文文本时,通过合理的配置和使用分词器,可以实现高效、准确的全文搜索。在实际项目中,开发者还应关注性能调优、错误处理以及与其它系统...