一.安装jdk6,tomcat5.5。
二.解压solr1.3,创建以下目录:
/usr/local/solr/solrApps: 保存的是solr.war
/usr/local/solr/multicore : 保存的是多核 solr的配制文件
拷贝solr1.3解压目录里的dist/apache-solr-1.3.0.war到solrApps里,example/multicore里的文件到multicore里。
三.配制如下:
1.在tomcat/conf/Catalina/localhost目录里增加solr.xml内容如下:
<?xml version="1.0" encoding="UTF-8" ?>
<Context docBase="/usr/local/solr/solrApps/solr.war" debug="0" crossContext="true" >
<Environment name="solr/home" type="java.lang.String" value="/usr/local/solr/multicore" override="true" />
</Context>
2.修改solr/multicore/solr.xml配制solr的多核参数为:
<solr persistent="false" sharedLib="paodingLib"> //增加一个共享lib配制,存放中文分词paoding的文件。
<!--
adminPath: RequestHandler path to manage cores.
If 'null' (or absent), cores will not be manageable via REST
-->
<cores adminPath="/admin/cores">
<core name="core0" instanceDir="core0" />
<core name="core1" instanceDir="core1" />
</cores>
</solr>
3.配制multicore/core0/conf/solrconfig.xml,内容如下:
<config>
<updateHandler class="solr.DirectUpdateHandler2" />
<dataDir>/usr/local/solr/multicore/sodao</dataDir> //此处配制每个core创建个自索引文件的目录,在配制目录下自动创建一个index目录,保存索引文件
<requestDispatcher handleSelect="true" >
<requestParsers enableRemoteStreaming="false" multipartUploadLimitInKB="2048" />
</requestDispatcher>
<requestHandler name="standard" class="solr.StandardRequestHandler" default="true" />
<requestHandler name="/update" class="solr.XmlUpdateRequestHandler" />
<requestHandler name="/admin/" class="org.apache.solr.handler.admin.AdminHandlers" />
<!-- config for the admin interface -->
<admin>
<defaultQuery>solr</defaultQuery>
</admin>
</config>
这个目录里的schema.xml为创建索引文件的配制。
四、起动tomcat,输入http://localhost:8080/solr,测试
五、配制中文paoding分词
1.在网上下载paoding分词,将分词的lib包放到/usr/local/solr/multicore放到这个目录下面,并编写如下类:
package net.qhsoft.analyzer;
import java.io.Reader;
import java.util.Map;
import net.paoding.analysis.analyzer.PaodingTokenizer;
import net.paoding.analysis.analyzer.TokenCollector;
import net.paoding.analysis.knife.PaodingMaker;
import net.paoding.analysis.analyzer.impl.MostWordsTokenCollector;
import net.paoding.analysis.analyzer.impl.MaxWordLengthTokenCollector;
import org.apache.lucene.analysis.TokenStream;
import org.apache.solr.analysis.BaseTokenizerFactory;
public class ChineseTokenizerFactory extends BaseTokenizerFactory {
/**
* 最多切分 默认模式
*/
public static final String MOST_WORDS_MODE = "most-words";
/**
* 按最大切分
*/
public static final String MAX_WORD_LENGTH_MODE = "max-word-length";
private String mode = null;
public void setMode(String mode) {
if (mode==null||MOST_WORDS_MODE.equalsIgnoreCase(mode)
|| "default".equalsIgnoreCase(mode)) {
this.mode=MOST_WORDS_MODE;
} else if (MAX_WORD_LENGTH_MODE.equalsIgnoreCase(mode)) {
this.mode=MAX_WORD_LENGTH_MODE;
}
else {
throw new IllegalArgumentException("不合法的分析器Mode参数设置:" + mode);
}
}
@Override
public void init(Map<String, String> args) {
super.init(args);
setMode(args.get("mode"));
}
public TokenStream create(Reader input) {
return new PaodingTokenizer(input, PaodingMaker.make(),
createTokenCollector());
}
private TokenCollector createTokenCollector() {
if( MOST_WORDS_MODE.equals(mode))
return new MostWordsTokenCollector();
if( MAX_WORD_LENGTH_MODE.equals(mode))
return new MaxWordLengthTokenCollector();
throw new Error("never happened");
}
}
打成一个net.jar包,也放到lib包里面
2. 把paoding的字典放到/usr/local/solr/multicore下面的dic目录里,并编辑/etc/profile文件,增加:
export PAODING_DIC_HOME=/usr/local/solr/multicore/dic
3.将lib目录下的paoding-analysis.properties,paoding-dic-home.properties两个文件考到/usr/local/solr目录下面。
分享到:
相关推荐
Linux环境下搭建Solr7与Tomcat8集成,并配合IK中文分词器的步骤涉及多个IT知识点,主要包括: 1. **Linux基础操作**:在Linux系统中进行文件管理、权限设置、服务启动和停止等基本操作是必要的。这包括对命令行的...
Solr如何进行索引和搜索 索引:客户端(可以是浏览器可以是java程序)发送post请求到solr服务器,发给solr服务器一个文档(xml、json),就可以进行一个添加索引删除索引、修改索引的操作。 搜索:客户端(可以是...
在这个过程中,我们将详细介绍如何在Tomcat7上安装Solr 5.0.0,并结合IKAnalyzer实现中文分词。 首先,我们需要下载Solr 5.0.0的压缩包和Tomcat7。确保你的系统已经安装了Java开发环境(JDK),因为Solr和Tomcat都...
Solr+Tomcat项目整合是将Apache Solr搜索引擎与Apache Tomcat应用服务器结合使用的过程,以便在Web环境中部署和运行Solr服务。Solr是一个基于Lucene的全文搜索服务器,而Tomcat则是一个轻量级Java应用服务器,常用于...
1. **Solr与Tomcat的关系**: Tomcat是一个开源的Servlet容器,Solr war文件部署在Tomcat中,以Web应用的形式运行。 2. **部署方式**: 可以选择直接将Solr war文件放入Tomcat的webapps目录,或者通过管理界面进行部署...
Solr3.2 + Paoding中文分词的搜索引擎是一个针对中文文档进行高效检索的解决方案,结合了Apache Solr 3.2版本与Paoding分词器的优势。Apache Solr是基于Lucene的开源搜索服务器,提供了更高级别的API和配置选项,而...
标题和描述提到的是针对Solr 5.5和Solr 6.0版本的IK分词器支持的相关资料,这意味着这些资源可能包括配置文件、文档、示例代码或者更新日志,帮助用户在这些特定版本的Solr中集成和优化IK分词器。 首先,让我们来看...
本配置成功案例主要涉及了几个关键点:Solr8的安装与配置、Tomcat9的部署、实时数据库批量更新以及IK中文分词器的集成。 1. **Solr8的安装与配置**: Solr8的安装通常包括下载最新版本的Solr,解压并配置环境变量...
在Linux环境中部署Solr,首先需要确保系统已经安装了Java运行环境(JRE)和Tomcat服务器。接着,下载并解压Solr的压缩包,找到war文件并将其移动到Tomcat的webapps目录下。然后,启动Tomcat服务,Solr会自动解压war...
标题 "sorlr + tomcat+ 庖丁解牛中文分词 配置文档" 提到的是一个关于在Apache Solr中集成Tomcat服务器,并利用庖丁解牛中文分词工具进行中文处理的配置教程。这个配置过程对于搭建支持中文搜索的Solr环境至关重要。...
Solr5.5 搜索引擎之分词原理说明是指 Solr5.5 搜索引擎内部使用的分词原理,旨在帮助开发者自定义自己的分词器时掌握分词的基础知识。 1. 中文分词 中文分词是指将中文汉字序列切分成有意义的词的过程。中文分词是...
Solr的Multicore配置是针对大型和复杂搜索应用的一种解决方案,它允许在一个Solr实例中管理多个独立的核心(core),每个核心对应一个独立的索引和配置。这种配置方式有助于实现更好的资源管理和扩展性,尤其适用于...
### Linux + Tomcat + MySQL + Solr 调优指南 #### 一、Linux系统调优 ##### TCP连接优化 为了提升Linux系统在网络层面的性能,可以对TCP连接进行优化,尤其是在处理大量并发请求时。以下是一些常用的TCP配置项:...
solr5.5.4.war&tomcat8.5.20,solr环境已经配置好。直接启动Tomcat即可使用,使用的java环境是1.8的版本,低版本没测试过。solrHhome配置在Tomcat目录下,solr日志配置在Tomcat日志目录下。
Solr+Spring+Hibernate+Maven+WebService整合框架是一个常见的企业级应用开发模式,它将搜索引擎Solr、持久层框架Hibernate、服务层框架Spring、构建工具Maven以及Web服务接口结合在一起,提供了一种高效、灵活的...
1. **下载与准备**:确保你已经安装了Java JDK,因为Solr和Tomcat都需要Java环境。下载最新版本的Tomcat和处理过的Solr配置文件。 2. **解压Solr**:解压缩下载的Solr压缩包,通常包含一个名为`server`的目录,这个...
标题中的"solr ssm java"表明这是一个使用Java语言,结合Spring、SpringMVC和MyBatis(SSM)框架的项目,其中整合了Apache Solr搜索引擎。让我们深入了解一下这些技术及其相互作用。 **Solr**: Apache Solr是基于...
几乎全新搭建ssm+shiro+solr7+mybatis逆向+maven多项目初步搭建测试,只是大致框架,接下来自己写,下面是linux 下solr7+tomcat8+IK中文分词器 环境 https://download.csdn.net/download/laysolitary/10686971
solr5.5使用的IK分词IKAnalyzer2012FF_u2.jar包,亲测可用。以及solr5.5同mysql数据同步用到的solr-dataimportscheduler-1.1.1.jar包,亲测可用。