接着上篇http://cxshun.iteye.com/blog/1039445,我们讲了怎么初始化配置solr,并运行。问题来了,当我们配置完成后,索引当中并没有任何东西,就是说我们查询得到的结果永远是0。
现在这篇文章,我们要讲的就是如果添加数据和删除数据,并体验一下solr的基本请求参数的用法。
1)首先,我们必须知道,solr添加数据类型可以有多种格式,最常用的是XML和JSON,这两种的可读性是最好的。在solr的example/exampledocs文件夹内有自带一些XML格式的文件,便于我们进行添加数据。

首先呢,又是一些废话,当然是启动example自带的jetty啦,还是上次的命令,java -jar start.jar。
接着另外开一下cmd,进入到example/exampledocs文件夹内,运行java -jar post.jar *.xml,这里的*.xml代表文件夹内的所有XML文件,当然你也可以选择其他一个进行添加,执行后我们看到执行结果。

看到最后一句,它表明提交这次索引所有的变化。这个提交的设置我们在后面会看到它的用法。
2)这里我们再进入到solr的管理页面,http://localhost:8983/solr/admin,我们直接搜索solr,看到页面大概如下:

我们进行搜索的结果默认是用XML格式显示,当然我们可以让它用JSON格式来显示,只要加上wt=json即可,加上后我们看到的结果为:

可以看到正确的结果。
http://localhost:8983/solr/select/?q=solr&version=2.2&start=0&rows=10&indent=on&wt=json下面我们分析一下这个链接中参数的意义,q当然是搜索的内容啦,version暂时可以不管,用处不在,start和rows与hibernate中的分页参数类似,指开始的记录位置和查询的条数,indent指返回代码的缩进,可以试一下不加这个和加这个的区别,wt则是返回的结果格式。
3)上面是我们用的它自带的XML文件提交的结果,下面我们自己来写一个。为了方便,我们就参照它的救命文件写一个。我们找到schema.xml可以看到:

这个是它允许我们提交的field的名称,我们就参照这些字段写几个试试吧。我把这个文件命名为test.xml
<add>
<doc>
<field name="id">Donnie Yen</field>
<field name="text">Great</field>
</doc>
</add>
接着我们用java -jar post.jar test.xml出现下面的结果:

这表明我们的数据已经提交成功,我们可以搜索一下:
http://localhost:8983/solr/select/?q=text:great&version=2.2&start=0&rows=10&indent=on
这表明我们提交的数据已经成功更新到索引了。
4)说了添加,现在也该来删除一些东西了,我们想删除我们刚才添加的那条记录,我们可以发送命令java -Ddata=args -jar post.jar "<delete><id>Donnie Yen</id></delete>"(这个命令中的-Ddata=args表明数据是中参数中获取),出现

则我们删除成功,不确定?那么我们再去查一下:

没了吧,证明我们删除成功了。
这些东西不难吧。solr用得比较多的东西就是分面浏览,也就是facet navigation。下面我们来学习一下。
5)分面浏览指的是像淘宝的功能一样,我们搜索一种产品,它会在上面再根据类别分出好多小类,直接看图:

我们看到它又分出了好多类,这种效果就叫分面浏览。
solr可以轻松做到分面浏览,比如我们在浏览器输入http://localhost:8983/solr/select/?q=solr&version=2.2&start=0&rows=10&indent=on&facet=true&facet.field=name&facet.query=price:[300%20TO%20400],我们可以看到:

这就是分面浏览的结果,它根据每个值再重新统计,统计出该类别下有多少个值。分面浏览的参数比较多,大家可以上WIKi上面看看http://wiki.apache.org/solr/SimpleFacetParameters。

- 大小: 40.5 KB

- 大小: 9 KB

- 大小: 26.7 KB

- 大小: 14 KB

- 大小: 9 KB

- 大小: 7.5 KB

- 大小: 13.4 KB

- 大小: 3.8 KB

- 大小: 6 KB

- 大小: 3.3 KB

- 大小: 4.8 KB
分享到:
相关推荐
Solr初体验:深入理解开源全文搜索引擎 Solr,全称Apache Solr,是一个高度可扩展的、开源的全文搜索引擎平台。它允许开发者通过HTTP接口对大量文本数据进行高效的搜索和分析。Solr由Java编写,是Apache软件基金会...
Solr初体验 Apache Solr 是一款开源的全文搜索引擎,基于 Lucene 库,提供了高效、可扩展的搜索和分析功能。它不仅用于网站的全文检索,还广泛应用于企业级的文档检索、商品搜索以及数据挖掘等领域。这篇博客将带你...
同时,你可以利用Solr的 faceting(分面搜索)、highlighting(高亮显示)、spell checking(拼写检查)等功能来提高用户体验。此外,Solr还支持实时添加和更新文档,以及高效的近实时搜索。 在部署和使用Solr时,...
Solr,全称为Apache Solr,是Apache软件基金会的一个开源项目,主要用来处理全文搜索和企业级的搜索应用。它基于Java,利用Lucene库...通过深入理解和熟练使用Solr,你可以为你的应用程序提供高效、精准的搜索体验。
2. 实时搜索:Solr具有实时索引和查询的能力,一旦数据被更新,索引会立即反映出来,提供实时搜索体验。 3. 多格式支持:Solr支持多种数据格式,如JSON、XML、CSV等,便于数据导入和处理。 4. 高级搜索功能:Solr...
2. **复制 Solr 配置文件**:将 `D:\solr\solr-5.2.0\server\solr` 下的所有文件复制到 `D:\solr\home` 目录。 #### 五、配置 Jar 包 1. **复制 Jar 文件**:将 `D:\solr\solr-4.7.2\example\lib\ext` 下的所有 ...
2. **集合与分片**:在SolrCloud中,数据被组织成“集合”,每个集合可以进一步划分为多个“分片”。分片有助于水平扩展,通过将数据分散在多台服务器上,实现更大的索引和查询吞吐量。 3. **Lucene库**:Solr是...
solr.warsolr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包...
2. `server`目录:包含了Solr服务器的核心组件,如Jetty web服务器,Solr配置文件,以及SolrCloud相关的配置和库文件。 - `server/solr`:存储Solr实例的目录,每个实例有自己的配置文件和数据目录。 - `server/...
2. **Core**:在Solr中,Core是一个独立的搜索实例,可以理解为数据库的概念。每个Core有自己的配置、索引和数据。你可以根据业务需求创建多个Core,每个Core处理不同的数据集。 3. **Collection**:在SolrCloud...
2. **核心组件** - **索引**:Solr使用Lucene来创建、维护和搜索索引。索引包括倒排索引,允许快速查找包含特定词汇的文档。 - **请求处理**:当请求到达时,Solr使用RequestHandler来解析和处理这些请求,返回...
Solr是Apache Lucene项目的一个子项目,是一个高性能、基于Java的企业级全文搜索引擎服务器。当你在尝试启动Solr时遇到404错误,这通常意味着Solr服务没有正确地启动或者配置文件设置不正确。404错误表示“未找到”...
在Solr中集成ikanalyzer,可以提高中文搜索的性能,使得搜索结果更加准确,用户体验得到提升。 在实际应用中,安装ikanalyzer-solr分词包的步骤大致如下: 1. 将`ik-analyzer-solr5-5.x.jar`添加到Solr服务器的`...
Solr,全称为Apache Solr,是一款开源的企业级搜索平台,由Apache软件基金会开发并维护。它是基于Java的,能够处理大量数据并提供...通过深入学习和实践,你可以充分利用Solr的特性,为你的项目带来卓越的搜索体验。
ikanalyzer 是一个专门为Java开发的中文...总之,ikanalyzer-solr8.4.0 是 Solr 8.4.0 版本下用于中文分词的重要工具,通过合理的配置和使用,可以显著提高 Solr 对中文文本的处理能力,从而提升搜索质量和用户体验。
2. 复制 solr-4.10.3\example\solr 文件夹到本地的一个目录,并将文件名改为 solrhome。 3. 打开 SolrHome 目录。 4. SolrCore 创建成功。 - **配置 SolrCore** - **solrconfig.xml**:配置 SolrCore 实例的...
2. **解压并复制文件**:解压缩下载的文件,将其中的`ikanalyzer-*.jar`文件复制到你的Solr服务器目录下的`solr\WEB-INF\lib`目录。这是Solr加载所有外部库的位置。 3. **配置Solr核心**:接下来,你需要在你的Solr...
solr的carrot2需要用到的文件solr-integration-strategies-gh-pages carrot3.9webapp,还有tomcat还有solr4.81请自己下载
Solr 7.1.0是此搜索引擎的一个特定版本,它包含了一系列优化和新特性,以提升性能和用户体验。 首先,我们来了解一下Solr的核心概念。Solr索引是用于快速搜索的文档集合,这些文档经过分词和分析,便于搜索。每个...
2. **增量导入**:增量导入只导入自上次导入以来发生变化的数据。Solr通过跟踪数据源中的“lastModified”或者其他时间戳字段来识别新数据或已修改的数据。这样可以显著减少索引时间和资源使用。 "apache-solr-...