`
JLK
  • 浏览: 236164 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

solr1.3 multicore + tomcat5.5 + paoding分词安装

    博客分类:
  • solr
阅读更多

.安装jdk6,tomcat5.5
.解压solr1.3,创建以下目录:
  /usr/local/solr/solrApps:
保存的是solr.war
  /usr/local/solr/multicore  :
保存的是多核 solr的配制文件
拷贝solr1.3解压目录里的dist/apache-solr-1.3.0.warsolrApps里,example/multicore里的文件到multicore里。
.配制如下:
   1.
tomcat/conf/Catalina/localhost目录里增加solr.xml内容如下:

<?xml version="1.0" encoding="UTF-8" ?>  
  
<Context docBase="/usr/local/solr/solrApps/solr.war" debug="0" crossContext="true" >  
<Environment name="solr/home" type="java.lang.String" value="/usr/local/solr/multicore" override="true" />  
</Context>  
   2.修改solr/multicore/solr.xml配制solr的多核参数为:

 <solr persistent="false" sharedLib="paodingLib"> //增加一个共享lib配制,存放中文分词paoding的文件。

 <!--adminPath: RequestHandler path to manage cores.    
 If 'null' (or absent), cores will not be manageable via REST  
  -->  
 <cores adminPath="/admin/cores">  
 <core name="core0" instanceDir="core0" />  
<core name="core1" instanceDir="core1" />  
 </cores>  
</solr>  
  3.配制multicore/core0/conf/solrconfig.xml,内容如下:

 <config>

 <updateHandler class="solr.DirectUpdateHandler2" />  
    
 <dataDir>/usr/local/solr/multicore/sodao</dataDir>  //此处配制每个core创建个自索引文件的目录,在配制目录下自动创建一个index目录,保存索引文件  
  
 <requestDispatcher handleSelect="true" >  
<requestParsers enableRemoteStreaming="false" multipartUploadLimitInKB="2048" />  
 </requestDispatcher>  
    
 <requestHandler name="standard" class="solr.StandardRequestHandler" default="true" />  
 <requestHandler name="/update" class="solr.XmlUpdateRequestHandler" />  
 <requestHandler name="/admin/" <pre name="code" class="java"></pre>class="org.apache.solr.handler.admin.AdminHandlers" />  
      
<!-- config for the admin interface -->   
<admin>  
 <defaultQuery>solr</defaultQuery>  
</admin>  
 
</config> 

 这个目录里的schema.xml为创建索引文件的配制。

 

四、起动tomcat,输入http://localhost:8080/solr,测试

五、配制中文paoding分词
  1.
在网上下载paoding分词,将分词的lib包放到/usr/local/solr/multicore放到这个目录下面,并编写如下类:

	package net.qhsoft.analyzer;  
	  
	import java.io.Reader;  
	import java.util.Map;  
	  
	import net.paoding.analysis.analyzer.PaodingTokenizer;  
	import net.paoding.analysis.analyzer.TokenCollector;  
	import net.paoding.analysis.knife.PaodingMaker;  
	import net.paoding.analysis.analyzer.impl.MostWordsTokenCollector;  
	import net.paoding.analysis.analyzer.impl.MaxWordLengthTokenCollector;  
	import org.apache.lucene.analysis.TokenStream;  
	import org.apache.solr.analysis.BaseTokenizerFactory;  
	  
	public class ChineseTokenizerFactory extends BaseTokenizerFactory {  
	  
	    /** 
	 
	     * 最多切分   默认模式 
	 
	     */  
	  
	    public static final String MOST_WORDS_MODE = "most-words";  
	  
	    /** 
	 
	     * 按最大切分 
	 
	     */  
	  
	    public static final String MAX_WORD_LENGTH_MODE = "max-word-length";  
	  
	    private String mode = null;  
	  
	    public void setMode(String mode) {  
	  
	             if (mode==null||MOST_WORDS_MODE.equalsIgnoreCase(mode)  
	  
	                      || "default".equalsIgnoreCase(mode)) {  
	  
	                  this.mode=MOST_WORDS_MODE;  
	  
	             } else if (MAX_WORD_LENGTH_MODE.equalsIgnoreCase(mode)) {  
	  
	                  this.mode=MAX_WORD_LENGTH_MODE;  
	  
	             }  
	  
	             else {  
	  
	                  throw new IllegalArgumentException("不合法的分析器Mode参数设置:" + mode);  
	  
	             }  
	  
	        }  
	  
	    @Override  
	  
	    public void init(Map<String, String> args) {  
	  
	        super.init(args);  
	  
	        setMode(args.get("mode"));  
	  
	    }  
	  
	    public TokenStream create(Reader input) {  
	  
	        return new PaodingTokenizer(input, PaodingMaker.make(),  
	  
	                  createTokenCollector());  
	  
	    }  
	  
	    private TokenCollector createTokenCollector() {  
	  
	        if( MOST_WORDS_MODE.equals(mode))  
	  
	             return new MostWordsTokenCollector();  
	  
	        if( MAX_WORD_LENGTH_MODE.equals(mode))  
	  
	             return new MaxWordLengthTokenCollector();  
	  
	        throw new Error("never happened");  
	  
	    }  
	  
	} 
 打成一个net.jar包,也放到lib包里面
  2.
paoding的字典放到/usr/local/solr/multicore下面的dic目录里,并编辑/etc/profile文件,增加:
export PAODING_DIC_HOME=/usr/local/solr/multicore/dic
  3.
lib目录下的paoding-analysis.propertiespaoding-dic-home.properties两个文件考到/usr/local/solr目录下面。
分享到:
评论

相关推荐

    linux 下solr7+tomcat8+IK中文分词器

    Linux环境下搭建Solr7与Tomcat8集成,并配合IK中文分词器的步骤涉及多个IT知识点,主要包括: 1. **Linux基础操作**:在Linux系统中进行文件管理、权限设置、服务启动和停止等基本操作是必要的。这包括对命令行的...

    Solr高级搜索+tomcat整合服务器

    Solr如何进行索引和搜索 索引:客户端(可以是浏览器可以是java程序)发送post请求到solr服务器,发给solr服务器一个文档(xml、json),就可以进行一个添加索引删除索引、修改索引的操作。 搜索:客户端(可以是...

    solr 5.0.0 + tomcat7 安装 + IKAnalyzer中文分词

    在这个过程中,我们将详细介绍如何在Tomcat7上安装Solr 5.0.0,并结合IKAnalyzer实现中文分词。 首先,我们需要下载Solr 5.0.0的压缩包和Tomcat7。确保你的系统已经安装了Java开发环境(JDK),因为Solr和Tomcat都...

    solr+tomcat项目

    Solr+Tomcat项目整合是将Apache Solr搜索引擎与Apache Tomcat应用服务器结合使用的过程,以便在Web环境中部署和运行Solr服务。Solr是一个基于Lucene的全文搜索服务器,而Tomcat则是一个轻量级Java应用服务器,常用于...

    solr4.9+tomcat+zookeeper集群

    1. **Solr与Tomcat的关系**: Tomcat是一个开源的Servlet容器,Solr war文件部署在Tomcat中,以Web应用的形式运行。 2. **部署方式**: 可以选择直接将Solr war文件放入Tomcat的webapps目录,或者通过管理界面进行部署...

    Solr3.2 + Paoding中文分词的搜索引擎

    Solr3.2 + Paoding中文分词的搜索引擎是一个针对中文文档进行高效检索的解决方案,结合了Apache Solr 3.2版本与Paoding分词器的优势。Apache Solr是基于Lucene的开源搜索服务器,提供了更高级别的API和配置选项,而...

    支持solr5.5 solr6.0中IK分词需要的资料

    标题和描述提到的是针对Solr 5.5和Solr 6.0版本的IK分词器支持的相关资料,这意味着这些资源可能包括配置文件、文档、示例代码或者更新日志,帮助用户在这些特定版本的Solr中集成和优化IK分词器。 首先,让我们来看...

    我的配置成功的solr8+tomcat.zip

    本配置成功案例主要涉及了几个关键点:Solr8的安装与配置、Tomcat9的部署、实时数据库批量更新以及IK中文分词器的集成。 1. **Solr8的安装与配置**: Solr8的安装通常包括下载最新版本的Solr,解压并配置环境变量...

    solr-4.10.3+ik分词器

    在Linux环境中部署Solr,首先需要确保系统已经安装了Java运行环境(JRE)和Tomcat服务器。接着,下载并解压Solr的压缩包,找到war文件并将其移动到Tomcat的webapps目录下。然后,启动Tomcat服务,Solr会自动解压war...

    sorlr + tomcat+ 庖丁解牛中文分词 配置文档

    标题 "sorlr + tomcat+ 庖丁解牛中文分词 配置文档" 提到的是一个关于在Apache Solr中集成Tomcat服务器,并利用庖丁解牛中文分词工具进行中文处理的配置教程。这个配置过程对于搭建支持中文搜索的Solr环境至关重要。...

    Solr5.5搜索引擎之分词原理说明.docx

    Solr5.5 搜索引擎之分词原理说明是指 Solr5.5 搜索引擎内部使用的分词原理,旨在帮助开发者自定义自己的分词器时掌握分词的基础知识。 1. 中文分词 中文分词是指将中文汉字序列切分成有意义的词的过程。中文分词是...

    Solr的Multicore(分片)配置

    Solr的Multicore配置是针对大型和复杂搜索应用的一种解决方案,它允许在一个Solr实例中管理多个独立的核心(core),每个核心对应一个独立的索引和配置。这种配置方式有助于实现更好的资源管理和扩展性,尤其适用于...

    linux+tomcat+mysql+solr调优

    ### Linux + Tomcat + MySQL + Solr 调优指南 #### 一、Linux系统调优 ##### TCP连接优化 为了提升Linux系统在网络层面的性能,可以对TCP连接进行优化,尤其是在处理大量并发请求时。以下是一些常用的TCP配置项:...

    solr5.5.4&tomcat8.5.20 solr已经配置好,直接启动Tomcat即可

    solr5.5.4.war&tomcat8.5.20,solr环境已经配置好。直接启动Tomcat即可使用,使用的java环境是1.8的版本,低版本没测试过。solrHhome配置在Tomcat目录下,solr日志配置在Tomcat日志目录下。

    solr+spring+hibernate+maven+webservice整合框架

    Solr+Spring+Hibernate+Maven+WebService整合框架是一个常见的企业级应用开发模式,它将搜索引擎Solr、持久层框架Hibernate、服务层框架Spring、构建工具Maven以及Web服务接口结合在一起,提供了一种高效、灵活的...

    solr+tomcat处理后的简易部署+说明文档(下)

    1. **下载与准备**:确保你已经安装了Java JDK,因为Solr和Tomcat都需要Java环境。下载最新版本的Tomcat和处理过的Solr配置文件。 2. **解压Solr**:解压缩下载的Solr压缩包,通常包含一个名为`server`的目录,这个...

    solr ssm java

    标题中的"solr ssm java"表明这是一个使用Java语言,结合Spring、SpringMVC和MyBatis(SSM)框架的项目,其中整合了Apache Solr搜索引擎。让我们深入了解一下这些技术及其相互作用。 **Solr**: Apache Solr是基于...

    ssm+shiro+solr7+mybatis逆向+maven多项目初步搭建测试

    几乎全新搭建ssm+shiro+solr7+mybatis逆向+maven多项目初步搭建测试,只是大致框架,接下来自己写,下面是linux 下solr7+tomcat8+IK中文分词器 环境 https://download.csdn.net/download/laysolitary/10686971

    solr5.5使用的Ik分词jar及mysql数据同步用到的jar

    solr5.5使用的IK分词IKAnalyzer2012FF_u2.jar包,亲测可用。以及solr5.5同mysql数据同步用到的solr-dataimportscheduler-1.1.1.jar包,亲测可用。

Global site tag (gtag.js) - Google Analytics