- 浏览: 130983 次
- 性别:
- 来自: 广州
文章分类
最新评论
-
saieuler:
最近想学,标记一下
Programming.Collective.Intelligence中对常用机器学习算法的总结 -
backsnow:
Primal中,显式计算Hessian矩阵的复杂度为nd^2, ...
svm的复杂度 -
backsnow:
调试运行时报~/workspace/mahout/exampl ...
mahout在eclipse下的开发环境 -
backsnow:
真见鬼,之前中文论文用latex打开变成乱码,把编码改一下再改 ...
Latex简历模板下载位置 -
backsnow:
我在将当前用户加入hadoop组的时候发现原来所属的组不见了, ...
ubuntu中用户组的问题
Solr 是一个可供企业使用的、基于 Lucene 的开箱即用的搜索服务器。对Lucene不熟?那么建议先看看下面两篇文档:
实战 Lucene ,第 1 部分: 初识 Lucene:http://www.ibm.com/developerworks/cn/java/j-lo-lucene1/
用 Lucene 加速Web搜索应用程序的开发:http://www.ibm.com/developerworks/cn/web/wa-lucene2/
一、 solr 介绍
solr 是基于Lucene Java搜索库的企业级全文搜索引擎,目前是apache的一个项目。它的官方网址在http://lucene.apache.org/solr/ 。solr需要运行在一个 servlet 容器里,例如 tomcat5.5 。 solr 在 lucene 的上层提供了一个基于 HTTP/XML 的 Web Services ,我们的应用需要通过这个服务与 solr 进行交互。
二、 solr 安装和配置
关于solr的安装和配置,这里也有两篇非常好的文档,作者同时也 是 Lucene Java 项目的提交人和发言人:
使用 Apache Solr 实现更加灵巧的搜索: http://www.ibm.com/developerworks/cn/java/j-solr1/index.html
http://www.ibm.com/developerworks/cn/java/j-solr2/index.html
下面主要说说需要注意的地方。
Solr 的安装非常简单,下载 solr 的 zip 包后解压缩将 dist 目录下的 war 文件改名为 solr.war 直接复制到 tomcat5.5 的 webapps 目录即可。注意一定要设置 solr 的主位置。有三种方法。我采用的是 在tomcat里配置java:comp/env/solr /home的一个JNDI指向solr的主目录(example目录下),建立/tomcat55/conf/Catalina/localhost /solr.xml文件。
< Environment name ="solr/home" type ="java.lang.String" value ="D:/solr/solr" override ="true" />
</ Context >
观察这个指定的solr主位置,里面存在两个文件夹:conf和 data。其中conf里存放了对solr而言最为重要的两个配置文件schema.xml和solrconfig.xml。data则用于存放索引文 件。
schema.xml 主要包括 types 、 fields 和其他的一些缺省设置。
solrconfig.xml 用来配置 Solr 的一些系统属性,例如与索引和查询处理有关的一些常见的配置选 项,以及缓存、扩展等等。
上面的文档对这两个文件有比较详细的说明,非常容易上手。注意到 schema.xml 里有一个
的配置,这里将 url 字段作为索引文档的唯一标识符,非常重要。
三、 加入中文分词
对全文检索而言,中文分词非常的重要,这里采用了qieqie庖丁分词(非常不错:))。集成非常的容易,我下载的 是2.0.4-alpha2版本,其中它支持最多切分和按最大切分。创建自己的一个中文TokenizerFactory继承自solr的 BaseTokenizerFactory。
* Created by IntelliJ IDEA.
* User: ronghao
* Date: 2007-11-3
* Time: 14:40:59
* 中文切词 对庖丁切词的封装
*/
public class ChineseTokenizerFactory extends BaseTokenizerFactory {
/**
* 最多切分 默认模式
*/
public static final String MOST_WORDS_MODE = " most-words " ;
/**
* 按最大切分
*/
public static final String MAX_WORD_LENGTH_MODE = " max-word-length " ;
private String mode = null ;
public void setMode(String mode) {
if (mode == null || MOST_WORDS_MODE.equalsIgnoreCase(mode)
|| " default " .equalsIgnoreCase(mode)) {
this .mode = MOST_WORDS_MODE;
} else if (MAX_WORD_LENGTH_MODE.equalsIgnoreCase(mode)) {
this .mode = MAX_WORD_LENGTH_MODE;
}
else {
throw new IllegalArgumentException( " 不 合法的分析器Mode参数设置: " + mode);
}
}
@Override
public void init(Map < String, String > args) {
super .init(args);
setMode(args.get( " mode " ));
}
public TokenStream create(Reader input) {
return new PaodingTokenizer(input, PaodingMaker.make(),
createTokenCollector());
}
private TokenCollector createTokenCollector() {
if ( MOST_WORDS_MODE.equals(mode))
return new MostWordsTokenCollector();
if ( MAX_WORD_LENGTH_MODE.equals(mode))
return new MaxWordLengthTokenCollector();
throw new Error( " never happened " );
}
}
在schema.xml的字段text配置里加入该分词器。
< analyzer type ="index" >
< tokenizer class ="com.ronghao.fulltextsearch.analyzer.ChineseTokenizerFactory" mode ="most-words" />
< filter class ="solr.StopFilterFactory" ignoreCase ="true" words ="stopwords.txt" />
< filter class ="solr.WordDelimiterFilterFactory" generateWordParts ="1" generateNumberParts ="1" catenateWords ="1" catenateNumbers ="1" catenateAll ="0" />
< filter class ="solr.LowerCaseFilterFactory" />
< filter class ="solr.RemoveDuplicatesTokenFilterFactory" />
</ analyzer >
< analyzer type ="query" >
< tokenizer class ="com.ronghao.fulltextsearch.analyzer.ChineseTokenizerFactory" mode ="most-words" />
< filter class ="solr.SynonymFilterFactory" synonyms ="synonyms.txt" ignoreCase ="true" expand ="true" />
< filter class ="solr.StopFilterFactory" ignoreCase ="true" words ="stopwords.txt" />
< filter class ="solr.WordDelimiterFilterFactory" generateWordParts ="1" generateNumberParts ="1" catenateWords ="0" catenateNumbers ="0" catenateAll ="0" />
< filter class ="solr.LowerCaseFilterFactory" />
< filter class ="solr.RemoveDuplicatesTokenFilterFactory" />
</ analyzer >
</ fieldtype >
</ types >
完成后重启tomcat,即可在http://localhost:8080/solr/admin/analysis.jsp
体验到庖丁的中文分词。注意要将paoding-analysis.jar复制到solr的lib下,注意修改 jar包里字典的home。
四、 与自己应用进行集成
Solr 安装完毕,现在可以将自己的应用与solr集成。其实过程非常的简单,应用增加数据--> 根据配置的字段构建add的xml文档 --> post 至solr/update。
应用删除数据 à 根据配置 的索引文档唯一标识符构建delete的xml文档 --> post 至solr/update。
检索数据 à 构建查询 xml—>get至/solr/select/--> 对solr返回的xml进行处理 --> 页面展现。
具体的xml格式可以在solr网站找到。另外就是solr支持高亮显示,非常方便。
关于中文,solr 内核支持 UTF-8 编码,所以在 tomcat 里的 server.xml 需要进行配置
另外,向solr Post请求的时候需要转为utf-8编码。对solr 返回的查询结果也需要进行一次utf-8的转码。检索数据时对查询的关键字也需要转码,然后用“+”连接。
for (String str : array) {
result = result + URLEncoder.encode(str, " UTF-8 " ) + " + " ;
}
http://www.blogjava.net/ronghao 荣浩原创,转载请注明出处:)
发表评论
-
pageRank计算公式的由来
2011-10-05 14:10 2098经常看到各种介绍pageran ... -
Sphinx Mysql Full-Search速成指南
2011-08-26 11:41 831Sphinx Mysql Full-Searc ... -
mahout在eclipse下的开发环境
2011-07-30 11:27 4778首先将源码转移到~/workspace下,目标文件夹为maho ... -
mahout安装配置
2011-07-27 20:41 1639http://log.medcl.net/item/2011/ ... -
通过实际应用学习hadoop
2011-05-15 18:58 0我首先从ivory这个开源的信息检索研究工具开始研究,对它感兴 ... -
备份记录
2011-04-06 09:13 742/nutch-1.2做了一个备份到~/petrelli/nut ... -
nutch的配置文件理解
2011-03-21 11:55 1173nutch的配置文件我们可以从Crawl.java中看起,在m ... -
自己安装的路径
2011-03-14 22:03 9821,今天在利用nutch和solr集成的环境建立索引时,bin ... -
集成nutch和solr,并加入中文分词的过程
2011-03-04 16:51 9564准备工作 安装nutch 安装solr 加入中文分词 ... -
Setting up Apache Solr in Eclipse(转)
2011-03-02 22:31 1094在eclipse中建立solr工程的时候,遇到的错误快把我 ... -
solr配置相关
2011-02-26 14:57 1038首先去官方网站看了一下solr的tutorial文档,里面给出 ... -
推荐的一些想法
2010-11-02 16:29 1017在读写网一篇评论推荐 ... -
少数人的智慧(The Wisdom of the Few) (转)
2010-10-12 20:26 964看 到这么个有吸引力的名字,你不会觉得它是一篇学术论文,但实际 ... -
基于LUCENE实现自己的推荐引擎(转)
2010-10-01 23:37 9091、常用推荐引擎算法问题 1)、相对成熟、完整、现成的开源解 ... -
海量数据分析:Sawzall并行处理(中文版论文)
2010-08-24 16:37 1834Google的工程师为了方便 ... -
Google的十大核心技术
2010-08-20 17:32 828Google的十大核心技术 作 ... -
MapReduce 中文版论文
2010-08-20 16:51 1209MapReduce 中文版论文 作 ...
相关推荐
标题中的“利用Solr搭建你的搜索引擎”意味着我们将探讨Apache Solr这一开源全文搜索平台的搭建过程。Solr是基于Lucene库的,提供了一个高效、可扩展的搜索和导航功能,广泛应用于各种企业的数据检索需求。 Solr的...
Solr全文检索环境搭建 Apache Solr是一款基于Java的开源搜索服务器,专为高效全文检索、拼写检查、高亮显示结果以及复杂查询语法等功能设计。它被广泛应用于各种规模的网站和企业应用中,提供了丰富的搜索功能。...
本教程将详细阐述如何通过Solr结合IK分词器,在Tomcat服务器上搭建一个功能完备的全文检索系统。 首先,我们需要了解Solr。Solr是Apache Lucene项目下的一个开源搜索服务器,它提供了高性能、可扩展的全文检索、...
Solr全文检索是一种高效、可扩展的开源搜索和分析引擎,由Apache软件基金会开发。它允许用户快速地对大量文本数据进行全文搜索、拼写检查、高亮显示搜索结果等功能。在本压缩包中,包含了关于Solr环境搭建、配置详解...
标题“lucene简单介绍及solr搭建使用”涉及了两个主要的开源搜索技术:Lucene和Solr。Lucene是Java开发的一个全文检索库,而Solr则是基于Lucene构建的企业级搜索平台,提供了更高级的功能和管理界面。 **Lucene简介...
Solr,全称为Apache Solr,是一款开源的企业级全文...通过理解并实践上述步骤,你可以成功搭建并使用Solr,实现高效的数据检索和管理。在实际应用中,还需要根据业务需求调整和优化Solr的配置,以达到最佳的搜索效果。
### 使用Lucene Solr搭建Oracle数据库全文搜索服务 #### 一、基础知识介绍 - **Lucene**: 是一个高性能、全功能的全文检索引擎库。它为开发者提供了构建搜索应用程序所需的工具,但不提供完整的搜索应用。 - **...
本教程将详细讲解如何搭建Solr,并涵盖拼音检索、三种主流分词器(smartcn、IK、mmseg4j)的配置以及停词器和扩展词库的使用。 首先,我们需要下载并安装Solr。通常,Solr的官方下载页面会提供最新版本的Solr压缩包...
**SOLR搭建企业搜索平台** Apache Solr是一款强大的开源企业级全文搜索引擎,它基于Java且构建于Apache Lucene之上。Solr提供了高效、可扩展的搜索和导航功能,广泛应用于各种规模的企业环境中,用于处理大量数据的...
在本项目中,我们主要探讨的是如何将SpringBoot与Apache Solr进行集成,实现全文检索功能。Apache Solr是一款开源的搜索服务器,它提供了高效、可扩展的全文检索、Hit高亮、 faceted search(分类浏览)以及相关性...
Solr服务器搭建是一个重要的步骤,它是Apache Lucene项目的一个企业级搜索平台,广泛应用于全文检索、数据索引和搜索解决方案。下面将详细讲解如何在Java 1.7和Tomcat 1.7环境下搭建Solr 4.10.3单机版。 一、Java...
Solr是Apache Lucene项目下的一个企业级搜索服务器,它提供了全文检索、高亮显示、 faceted search(分面搜索)以及实时分析等功能。本文将详细介绍如何搭建Solr环境,并解析其配置文件,同时也会涉及SolrJ客户端的...
最后,IK分词器是针对中文的全文检索分析器,适用于Solr和Lucene。资源包中的IK Analyzer 2012FF_hf1是IK分词器的一个版本,它提供了对中文词语的智能分词。在使用IK分词器之前,需要将其解压并将jar文件添加到Solr...