之前看过Lucen方面的资料,但是一直没机会使用,也就没深入。当时觉得中文分词效果一直不理想,也尝试过几个开元插件,IK,paoding... 直到去年因项目需要,开始了解Lucen的封装框架Solr,同时实践了中科院分词的Java开元版本imdict-chinese-analyzer ,效果很好。以下是实践的过程,solr版本为4.3.0
第一步按照http://wiki.apache.org/solr/SolrInstall开始搭建开发环境
1、将solr-4.3.0.war拷贝到tomcat/webapps/重命名为solr.war
2、修改solr.war/WEB-INF/web.xml,配置solr/home,将以下片段取消注释
<env-entry> <env-entry-name>solr/home</env-entry-name> <env-entry-value>E:/SOLR_HOME/solr</env-entry-value> <env-entry-type>java.lang.String</env-entry-type> </env-entry>
这里将solr/home配置为E:/SOLR_HOME/solr,其内容拷贝自solr-4.3.0\example\solr
3、拷贝slf4j-api-1.6.6.jar,slf4j-log4j12-1.6.6.jar,log4j-1.2.16.jar,commons-logging-1.0.4.jar到solr.war/WEB-INF/lib目录
4、新建solr.war/WEB-INF/classes/目录,新建log4j.properties配置日志
启动tomcat,访问http://localhost/solr/看见solr管理控制台,部署成功。
第二步配置中文分词。
imdict.jar已经集成到solr发布版本中,位于solr-4.3.0\contrib\analysis-extras\lucene-libs包名为lucene-analyzers-smartcn-4.3.0.jar,增加配置即可。
1、修改sole/home/collection1/conf/schema.xml,在types节电下增加如下片段
<!-- 配置smartcn分词器 --> <fieldType name="text_zh" class="solr.TextField" positionIncrementGap="100"> <analyzer type="index"> <!-- 此处需要配置主要的分词类 --> <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory" /> <filter class="solr.SmartChineseWordTokenFilterFactory" /> </analyzer> <analyzer type="query"> <!-- 此处配置同上 --> <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory" /> <filter class="solr.SmartChineseWordTokenFilterFactory" /> </analyzer> </fieldType>
2、将相关jar拷贝至solr.war/WEB-INF/lib目录下
重新启动Tomcat,访问solr控制台即可看到效果。如图
以上solr/home硬编码到程序中,不便维护,也可以通过配置的方式部署,即不拷贝solr.war,新建tomcat/conf/Catalina/localhost/solr.xml内容如下
<?xml version="1.0" encoding="GB2312"?> <Context docBase="position_of_solr.war" debug="0" crossContext="true"> <Environment name="solr/home" type="java.lang.String" value="your_solr_home" override="true"/> </Context>
相关推荐
在tomcat的conf文件夹建立Catalina文件夹,然后在Catalina文件夹中在建立localhost文件夹,在该文件夹下面建立 apache-solr-3.6.0.xml 提交搜索资源并建立索引 cd /Volumes/Date/apache-tomcat-7.0.27/webapps/...
要在Tomcat中配置Solr,需要修改Tomcat的`conf/Catalina/localhost`目录下的`solr.xml`文件。设置`docBase`属性为`E:\ruanjian\lucene-3.6.2\solr\server\solr`,这是你的Solr应用的路径。 5. **配置Context**: ...
需要将IK分词器的jar包(如`ikanalyzer.jar`)添加到Solr的`lib`目录,并在Solr的`schema.xml`或`managed-schema`文件中配置分词器,指定其在索引和查询时的使用。 9. **启动Tomcat**:启动Tomcat服务器,Solr实例...
只需要解压然后启动tomcat即可访问solr服务器,需要自行在apache-tomcat-solr-7.0.52\webapps\solr\solrhome\collection1\conf\schema.xml修改适合自己的配置的域即可
tomcat-9.0.20\webapps\solr\WEB-INF\lib下(Tomcat项目里solr项目)其他三个文件放到apache-tomcat-9.0.20\webapps\solr\WEB-INF\classes下(Tomcat项目里solr项目)然后进行ik分词器的配置,编辑cor下路径的...
### Solr 3.5与Tomcat的部署配置及与Java项目的集成 #### 一、Solr 3.5与Tomcat的部署配置 **1. 下载与安装Solr** 首先,需要从官方或其他可信任来源下载Apache Solr 3.5.0。根据描述中的链接(虽然不可用),...
Apache Solr 是一款开源的企业级搜索服务器,由Apache软件基金会维护。它被广泛应用于构建高效、可扩展的全文检索应用。本部分中文翻译主要涵盖了Solr的快速入门、Schema设计和文本分析以及索引与搜索的基本操作。 ...
Solr+IK分词集成Tomcat实现全文检索是构建高效搜索引擎的关键步骤,尤其在电子商务等大量数据检索场景中,这一技术的应用尤为重要。本教程将详细阐述如何通过Solr结合IK分词器,在Tomcat服务器上搭建一个功能完备的...
在本场景中,我们关注的是将 Solr 集成到 Tomcat 服务器上,以便利用其强大的搜索能力。Tomcat 是一个流行的开源 Java 应用服务器,常用于部署 Web 应用程序。下面我们将详细介绍如何配置已集成 Solr 的 Tomcat ...
本教程将详细介绍如何在Tomcat 8.0中整合Solr 8.0,并配置IK分词器,以实现更精准的中文分词搜索。 首先,我们需要了解Tomcat和Solr的基本概念。Tomcat是Apache软件基金会的Jakarta项目中的一个核心项目,它遵循...
标题 "sorlr + tomcat+ 庖丁解牛中文分词 配置文档" 提到的是一个关于在Apache Solr中集成Tomcat服务器,并利用庖丁解牛中文分词工具进行中文处理的配置教程。这个配置过程对于搭建支持中文搜索的Solr环境至关重要。...
1. **部署**: 将Solr的war文件(通常名为`solr.war`)部署到Tomcat6的应用目录下,Tomcat会自动解压并创建一个Solr Web应用程序。每个Solr实例都对应一个特定的目录,包含配置文件和索引。 2. **启动和管理**: 通过...
在本文档中,我们将详细介绍如何部署和使用 Solr 5.5.4 版本,包括两种常见的部署方式:Jetty 和 Tomcat,并涉及到中文分词器IKAnalyzer的集成以及对Word文档的支持。 首先,我们需要准备合适的环境,这里要求的是...
Solr、IK分词器和Tomcat是三个在IT领域中非常重要的组件,它们在构建高效、可扩展的搜索引擎和Web应用程序中起着关键作用。 首先,让我们详细了解一下Solr。Solr是Apache Lucene项目的一个子项目,是一个开源的企业...
Apache Solr是基于Lucene的开源搜索服务器,提供了更高级别的API和配置选项,而Paoding则是一款专门针对中文的高性能分词工具,能准确地对中文文本进行切词,提升搜索的精确度。 首先,Apache Solr 3.2是Solr的一个...