这个简短的教程描述了如何在 Ubuntu Server 上安装 Solr 4,我使用的版本是:Ubuntu Server 12.04 和 Apache Solr 4.0-BETA. 我同时将展示如何测试安装以及执行一个简单的索引和查询任务。
在 Ubuntu 12.04 LTS 上安装 Tomcat
1. 安装包
1 |
apt-get install tomcat6 curl
|
2. 从 http://lucene.apache.org/solr 上下载 Solr 4 (写文章是的最新版本是 apache-solr-4.0.0-BETA.tgz)
3. 为 solr 选择一个目录,并使用 SOLR_HOME 环境变量指向这个目录,我这里选择的是 /opt/solr ,因此我的 SOLR_HOME=/opt/solr. 如果你想选择不同的目录请替换 /opt/solr
4. 解压缩文件并复制到 $SOLR_HOME:
- 复制 example/solr/* 到 /opt/solr
- 复制 example/webapps/solr.war 到 /opt/solr
5. 编辑 /opt/solr/collection1/conf/solrconfig.xml 中的 dataDir 配置项
1 |
< dataDir >${solr.data.dir:/opt/solr/data}</ dataDir >
|
6. 为 Solr 创建数据目录,并给 tomcat 设置可读写权限
1 |
% mkdir /opt/solr/data
|
2 |
% sudo chown tomcat6 /opt/solr/data
|
下面是我的 /opt/solr 目录的结构:
$ tree -d ├── bin ├── collection1 │ └── conf │ ├── lang │ ├── velocity │ └── xslt └── data
7. 在 Tomcat 中设置新的 context (web应用程序)并指向我们的 solr 文件,只需要在创建文件/etc/tomcat6/Catalina/localhost/solr.xml ,内容如下:
1 |
<? xml version = "1.0" encoding = "utf-8" ?>
|
2 |
< Context docBase = "/opt/solr/solr.war" debug = "0" crossContext = "true" >
|
3 |
< Environment name = "solr/home" type = "java.lang.String" value = "/opt/solr" override = "true" />
|
4 |
</ Context >
|
8. 重启 tomcat
1 |
/etc/init.d/tomcat6 restart |
9. 你可以在浏览器上打开 http://localhost:8080/solr 来验证是否安装成功
索引测试以及 UTF-8 测试
solr 安装文件包含一个简单的 schema.xml (我们已经复制到了 $SOLR_HOME 目录) 和一些包含示例数据的 xml 文件,我们将使用这些数据来测试 UTF-8 编码是否正常。
1. 进入 solr 解压目录然后使用 curl 导入 utf8-example.xml 文件
1 |
URL=http://localhost:8080/solr/update |
2 |
curl $URL --data-binary @example/exampledocs/utf8-example.xml -H 'Content-type:application/xml'
|
来自服务器的响应类似如下XML信息:
1 |
<? xml version = "1.0" encoding = "UTF-8" ?>
|
2 |
< response >
|
3 |
< lst name = "responseHeader" >< int name = "status" >0</ int >< int name = "QTime" >22</ int ></ lst >
|
4 |
</ response >
|
5 |
</ xml >
|
2. 提交文档
1 |
curl "$URL?softCommit=true"
|
3. 通过测试搜索字符串 êâîôû ,使用 Solr 管理界面或者使用 GET 请求访问
http://localhost:8080/solr/collection1/select?q=êâîôû
你将看到返回一个搜索结果。
相关推荐
文档中详细介绍了如何在ubuntu下面安装solr-4.9.0,以及在安装过程中出现的问题和解决办法
Solr中文分词器是针对Apache Solr全文检索引擎在处理中文文本时的不足而设计的一种解决方案。Solr默认的分词策略主要针对英文文本,它以空格为分隔符进行分词,而对于中文这种没有明显分隔符的语言,就需要特定的...
"solr中文分词高版本"的标题表明我们在这里讨论的是适用于Solr 6.5及以上版本的中文分词解决方案,因为默认的Solr分词器可能不支持这些较高版本,或者在使用过程中会出现问题。 描述中提到的“网上提供的solr中文...
因此,为了准确地理解和检索中文内容,我们需要进行分词,将连续的汉字序列切割成具有独立意义的词汇。这有助于提高搜索结果的相关性和精度。 2. **Solr 的分词器** Solr 内置了多种分词器,包括 ...
Solr是中国最流行的开源搜索引擎平台之一,而IK Analyzer是一款针对中文的高性能分词器,尤其在处理现代汉语的复杂情况时表现出色。本教程将详细解释如何在Solr中安装和使用IK分词器。 首先,让我们理解一下什么是...
Ik Analyzer是一款针对Java平台设计的、专门用于中文分词的开源工具,它在Solr中扮演着至关重要的角色。 标题提到的"ik-analyzer 7.5.0"是Ik Analyzer的一个特定版本,这个版本包含了对Solr的支持,并且提供了类...
在Ubuntu系统上设置Apache Solr 7并使用IK分词器是提高中文文本搜索效率的重要步骤。Apache Solr是一款基于Lucene的全文检索服务器,它提供了高效、可扩展的搜索和分析功能。IK分词器(Intelligent Chinese Analyzer...
在处理中文文本时,由于中文的特殊性(词与词之间没有明显的分隔符),需要使用专门的分词器进行预处理,将连续的汉字流分割成有意义的词语,这个过程称为中文分词。IK Analyzer(简称IK)就是为了解决这个问题而...
描述中提到的"solr中文分词器 IKAnalyzer 支持solr版本5.x到7.x 亲测可用,我用的是7.2版本"进一步证实了IKAnalyzer在Solr 7.2版本中的实际应用,这为其他用户提供了信心,确保了在不同Solr版本下的稳定运行。...
ikanalyzer-solr中文分词包是专门为Apache Solr设计的一款强大的中文分词工具,它在处理中文文本时能够有效地进行词语切分,提高搜索准确性和效率。标题中提到的"ikanalyzer-solr中文分词包兼容solr7.5"意味着这个...
描述中提到的"solr7.3.1种需要的中文IK分词器",IK(Intelligent Chinese Analyzer)分词器是一个强大的、成熟的中文分词组件,广泛应用于各种Java开发的搜索系统中。IK分词器支持多种分词模式,包括精确模式、全...
### Ubuntu16.04上Solr7的安装与部署详解 #### 一、环境准备与配置 在开始部署Solr7之前,首先确保已经具备了以下基础环境: 1. **虚拟机环境**:本教程使用的是VMware12.0作为虚拟机平台,操作系统为Ubuntu16.04...
solr搜索框架的中文分词器文件及配置详解供大家下载,亲测可用.解压出来的jar包放到apache-tomcat-9.0.20\webapps\solr\WEB-INF\lib下(Tomcat项目里solr项目)其他三个文件放到apache-tomcat-9.0.20\webapps\solr\...
一、Solr中文分词器概述 在处理中文文档时,由于中文句子没有明显的分隔符,如英文的空格,因此需要使用分词器进行预处理。Solr支持多种中文分词器,如IK Analyzer、Smart Chinese Analyzer、Paoding Analyzer等,...
在Solr中,有多种内置的分词器可供选择,如StandardTokenizer(标准分词器)和IK Analyzer(智能中文分词器)。以IK Analyzer为例,它是专门为中文设计的分词器,能够处理复杂的中文词汇切分问题。IK Analyzer支持...
**Solr中文分词器IK Analyzer** Solr作为一款强大的全文搜索引擎,对于中文处理有着特殊的需求,因为中文的语义分析比英文复杂得多。IK Analyzer是专门为了解决这个问题而设计的,它是一款开源的、高性能的、适用于...
IK分词器(Intelligent Chinese Analyzer for Solr)是针对Solr优化的中文分词工具,它支持多种分词模式,包括精确模式、全模式、关键词模式等,以满足不同场景的需求。在Solr的`schema.xml`配置文件中,你可以指定...
中文分词技术(中文分词原理)词是最小的能够独立活动的有意义的语言成分,英文单词之间是以空格作为自然分界符的,而汉语是以字为基本的书写单位,词语之间没有明显的区分标记,因此,中文词语分析是中文信息处理的...