`
hongtoushizi
  • 浏览: 379192 次
  • 性别: Icon_minigender_1
  • 来自: 天津
社区版块
存档分类
最新评论

ubuntu 安装solr中文分词(转载)

阅读更多

这个简短的教程描述了如何在 Ubuntu Server 上安装 Solr 4,我使用的版本是:Ubuntu Server 12.04 和 Apache Solr 4.0-BETA. 我同时将展示如何测试安装以及执行一个简单的索引和查询任务。

在 Ubuntu 12.04 LTS 上安装 Tomcat

1. 安装包

1 apt-get install tomcat6 curl

 

2. 从 http://lucene.apache.org/solr 上下载 Solr 4 (写文章是的最新版本是 apache-solr-4.0.0-BETA.tgz)

3. 为 solr 选择一个目录,并使用 SOLR_HOME 环境变量指向这个目录,我这里选择的是 /opt/solr ,因此我的 SOLR_HOME=/opt/solr. 如果你想选择不同的目录请替换 /opt/solr

4. 解压缩文件并复制到 $SOLR_HOME:

  • 复制 example/solr/* 到 /opt/solr
  • 复制 example/webapps/solr.war 到 /opt/solr

5. 编辑 /opt/solr/collection1/conf/solrconfig.xml 中的 dataDir 配置项

1 <dataDir>${solr.data.dir:/opt/solr/data}</dataDir>

 

6. 为 Solr 创建数据目录,并给 tomcat 设置可读写权限

1 mkdir /opt/solr/data
2 sudo chown tomcat6 /opt/solr/data

 

下面是我的 /opt/solr 目录的结构:

$ tree -d ├── bin
├── collection1
│   └── conf
│       ├── lang
│       ├── velocity
│       └── xslt
└── data

7. 在 Tomcat 中设置新的 context (web应用程序)并指向我们的 solr 文件,只需要在创建文件/etc/tomcat6/Catalina/localhost/solr.xml ,内容如下:

1 <?xml version="1.0" encoding="utf-8"?>
2 <Context docBase="/opt/solr/solr.war" debug="0" crossContext="true">
3   <Environment name="solr/home" type="java.lang.String"value="/opt/solr" override="true"/>
4 </Context>

 

8. 重启 tomcat

1 /etc/init.d/tomcat6 restart

 

9. 你可以在浏览器上打开 http://localhost:8080/solr 来验证是否安装成功

solr dashboard

solr 面板

索引测试以及 UTF-8 测试

solr 安装文件包含一个简单的 schema.xml (我们已经复制到了 $SOLR_HOME 目录) 和一些包含示例数据的 xml 文件,我们将使用这些数据来测试 UTF-8 编码是否正常。

1. 进入 solr 解压目录然后使用 curl 导入 utf8-example.xml 文件

1 URL=http://localhost:8080/solr/update
2 curl $URL --data-binary @example/exampledocs/utf8-example.xml -H'Content-type:application/xml'

 

来自服务器的响应类似如下XML信息:

1 <?xml version="1.0" encoding="UTF-8"?>
2 <response>
3 <lst name="responseHeader"><int name="status">0</int><intname="QTime">22</int></lst>
4 </response>
5 </xml>

 

2. 提交文档

1 curl "$URL?softCommit=true"

 

3. 通过测试搜索字符串 êâîôû ,使用 Solr 管理界面或者使用 GET 请求访问

http://localhost:8080/solr/collection1/select?q=êâîôû

你将看到返回一个搜索结果。

 

转载自: http://www.oschina.net/question/12_71342

分享到:
评论

相关推荐

    ubuntu下安装solr4.9详细介绍

    文档中详细介绍了如何在ubuntu下面安装solr-4.9.0,以及在安装过程中出现的问题和解决办法

    solr中文分词器

    Solr中文分词器是针对Apache Solr全文检索引擎在处理中文文本时的不足而设计的一种解决方案。Solr默认的分词策略主要针对英文文本,它以空格为分隔符进行分词,而对于中文这种没有明显分隔符的语言,就需要特定的...

    solr中文分词高版本

    "solr中文分词高版本"的标题表明我们在这里讨论的是适用于Solr 6.5及以上版本的中文分词解决方案,因为默认的Solr分词器可能不支持这些较高版本,或者在使用过程中会出现问题。 描述中提到的“网上提供的solr中文...

    solr 中文分词

    因此,为了准确地理解和检索中文内容,我们需要进行分词,将连续的汉字序列切割成具有独立意义的词汇。这有助于提高搜索结果的相关性和精度。 2. **Solr 的分词器** Solr 内置了多种分词器,包括 ...

    solr ik分词器

    Solr是中国最流行的开源搜索引擎平台之一,而IK Analyzer是一款针对中文的高性能分词器,尤其在处理现代汉语的复杂情况时表现出色。本教程将详细解释如何在Solr中安装和使用IK分词器。 首先,让我们理解一下什么是...

    solr中文分词jar包ik-analyzer 含class配置 ik-analyzer-7.5.0

    Ik Analyzer是一款针对Java平台设计的、专门用于中文分词的开源工具,它在Solr中扮演着至关重要的角色。 标题提到的"ik-analyzer 7.5.0"是Ik Analyzer的一个特定版本,这个版本包含了对Solr的支持,并且提供了类...

    ubuntu下solr7的ik分词及配置使用

    在Ubuntu系统上设置Apache Solr 7并使用IK分词器是提高中文文本搜索效率的重要步骤。Apache Solr是一款基于Lucene的全文检索服务器,它提供了高效、可扩展的搜索和分析功能。IK分词器(Intelligent Chinese Analyzer...

    solr ik中文分词

    在处理中文文本时,由于中文的特殊性(词与词之间没有明显的分隔符),需要使用专门的分词器进行预处理,将连续的汉字流分割成有意义的词语,这个过程称为中文分词。IK Analyzer(简称IK)就是为了解决这个问题而...

    solr 中文分词其IKAnalyzer 支持solr版本5.X-7.X

    描述中提到的"solr中文分词器 IKAnalyzer 支持solr版本5.x到7.x 亲测可用,我用的是7.2版本"进一步证实了IKAnalyzer在Solr 7.2版本中的实际应用,这为其他用户提供了信心,确保了在不同Solr版本下的稳定运行。...

    ikanalyzer-solr中文分词包兼容solr7.5

    ikanalyzer-solr中文分词包是专门为Apache Solr设计的一款强大的中文分词工具,它在处理中文文本时能够有效地进行词语切分,提高搜索准确性和效率。标题中提到的"ikanalyzer-solr中文分词包兼容solr7.5"意味着这个...

    solr7.3.1中文分词器

    描述中提到的"solr7.3.1种需要的中文IK分词器",IK(Intelligent Chinese Analyzer)分词器是一个强大的、成熟的中文分词组件,广泛应用于各种Java开发的搜索系统中。IK分词器支持多种分词模式,包括精确模式、全...

    Ubuntu16.04安装部署solr7

    ### Ubuntu16.04上Solr7的安装与部署详解 #### 一、环境准备与配置 在开始部署Solr7之前,首先确保已经具备了以下基础环境: 1. **虚拟机环境**:本教程使用的是VMware12.0作为虚拟机平台,操作系统为Ubuntu16.04...

    solr中文分词器文件及配置.zip

    solr搜索框架的中文分词器文件及配置详解供大家下载,亲测可用.解压出来的jar包放到apache-tomcat-9.0.20\webapps\solr\WEB-INF\lib下(Tomcat项目里solr项目)其他三个文件放到apache-tomcat-9.0.20\webapps\solr\...

    solr 5.x 和 6.x 最新中文分词器

    一、Solr中文分词器概述 在处理中文文档时,由于中文句子没有明显的分隔符,如英文的空格,因此需要使用分词器进行预处理。Solr支持多种中文分词器,如IK Analyzer、Smart Chinese Analyzer、Paoding Analyzer等,...

    solr分词器

    在Solr中,有多种内置的分词器可供选择,如StandardTokenizer(标准分词器)和IK Analyzer(智能中文分词器)。以IK Analyzer为例,它是专门为中文设计的分词器,能够处理复杂的中文词汇切分问题。IK Analyzer支持...

    solr中文分词器ik-analyzer-solr7.x

    **Solr中文分词器IK Analyzer** Solr作为一款强大的全文搜索引擎,对于中文处理有着特殊的需求,因为中文的语义分析比英文复杂得多。IK Analyzer是专门为了解决这个问题而设计的,它是一款开源的、高性能的、适用于...

    solr(中文分词器)集群

    IK分词器(Intelligent Chinese Analyzer for Solr)是针对Solr优化的中文分词工具,它支持多种分词模式,包括精确模式、全模式、关键词模式等,以满足不同场景的需求。在Solr的`schema.xml`配置文件中,你可以指定...

    solr中文分词器技术

    中文分词技术(中文分词原理)词是最小的能够独立活动的有意义的语言成分,英文单词之间是以空格作为自然分界符的,而汉语是以字为基本的书写单位,词语之间没有明显的区分标记,因此,中文词语分析是中文信息处理的...

Global site tag (gtag.js) - Google Analytics