在下载的solr的解压包的事例中,默认只有一个Core(collection1),如果想添加自己的Core,比如我想添加一个Core(item),可以使用如下的步骤:
1. 在Solr的Home目录的solr目录中创建文件夹item(在C:\solr-tomcat\solr中创建item).
如果你还不了解什么是Solr的Home目录,可以看下这个博客,一看便知:http://josh-persistence.iteye.com/blog/2028500
2.在新创建的item目录中创建两个文件夹data和conf。
3.将collection1中的conf目录下的所有文件copy到新创建的conf目录下。
4.使用如下的url增加item Core。
http://localhost:9898/solr/admin/cores?action=CREATE&name=item&instanceDir=item&config=solrconfig.xml&schema=schema.xml&dataDir=data
(9898是Solr启动的端口,如果Solr是在Tomcat中启动,则是Tomcat的端口)
如果成功创建,则会显示类似如下的信息:
<response> <lst name="responseHeader"> <int name="status">0</int> <int name="QTime">4220</int> </lst> <str name="core">item</str> </response>
如果多次创建,则会显示类似如下的错误信息:
<str name="msg">Core with name 'item' already exists.</str>
解决这个错误,只需要删除item目录下的core.properties文件然后重新执行如下url即可新增item Core
http://localhost:9898/solr/admin/cores?action=CREATE&name=item&instanceDir=item&config=solrconfig.xml&schema=schema.xml&dataDir=data
5. 经过以上步骤后,item这个Core应该已经创建成功,可通过类似如下的URL查看
http://localhost:9898/solr/#/~cores/collection1
相关推荐
《IK Analyzer在Solr 7.x中的应用与配置详解》 IK Analyzer,全称为"Intelligent Keyword Analyzer",是一款基于Java实现的、广泛应用于搜索引擎和NLP(自然语言处理)领域的中文分词器。它以其高效、灵活和高度可...
解压"ik-analyzer-solr7.zip"后,你会得到ik-analyzer-solr7.x目录,这个目录包含了IKAnalyzer在Solr中的所有相关组件。通常,这些组件包括配置文件、分词器的JAR库以及可能的字典文件。配置文件(如`schema.xml`或`...
在Solr6.x中集成IK中文分词器,需要完成以下步骤: 1. 下载IK分词器的对应版本,确保与Solr6.x兼容。 2. 将下载的`solr6.x_IK中文分词工具`解压,将`lib`目录下的jar文件复制到Solr的`server/solr-webapp/webapp/...
solr 6.x.x , ik 分词器, 可以实现对一段汉字进行分词处理, 支持配置扩展词语, 在分词时, 对特定词语不进行分词
使用IKAnalyzer在Solr4.X中的步骤通常如下: 1. **下载和解压**:首先,你需要下载匹配Solr4.x版本的IKAnalyzer jar包,这通常包括核心jar文件和其他必要的资源文件。 2. **替换原有分词器**:将下载的IKAnalyzer ...
总的来说,solr-dataimport-scheduler.jar是Solr 7.x版本中实现定时数据导入和索引更新的关键工具,它极大地提升了Solr在实时和大数据环境下的性能和可靠性。通过合理配置和使用,可以确保你的Solr实例始终拥有最新...
### Apache Solr 7.x Mastering Guide:提升、优化与扩展企业级搜索技术详解 #### 知识点一:Apache Solr 7.x 概览 - **版本更新要点**:本书聚焦于Apache Solr 7.x版本的核心特性和新增功能,包括性能提升、稳定性...
标题 "solr5.5.x的中文分词IKAnalyzer" 指的是...总的来说,使用IKAnalyzer在Solr 5.5.x中进行中文分词,可以帮助提高中文文本的搜索效率和准确性,同时通过自定义配置和扩展词典,可以更好地适应各种应用场景的需求。
solr更新到6.x的版本了,ik-analyzer-5.x.jar又不好使了。 无意间从"随-忆"的博客中看到了如何去修改源代码,从而让分词器能够适应6.x的版本,亲自尝试了一下,果然可以,于是奉上了自己重新编译的jar包。 6.x的版本...
在Solr6.x中,为了实现中文分词,我们可以使用ikanalyzer,这是一个专门为中文设计的分析器,它能够有效地对中文文本进行分词。 ikanalyzer-solr5是一个专门为Solr5定制的ikanalyzer版本,但据描述所示,它同样可以...
这是属于Solr7.X版本的全量、增量更新jar包,有很多版本的这个jar包是没有更新过的,因为这个jar包是爱好者开发的,并不是官方维护,所以很难找到,我是用了两天才找到。
在Solr 5.x和6.x版本中,中文分词器扮演着至关重要的角色,它负责将中文文本拆分成有意义的词汇,便于索引和查询。下面将详细介绍Solr中的中文分词器及其相关知识。 一、Solr中文分词器概述 在处理中文文档时,由于...
但当我们使用solr 6.x进行配置的时候,就发现会各种各样的报错,最常出现的问题就是抽象方法错误,其实就是因为我们使用的IKAnalyzer版本和solr版本不匹配导致系统无法根据配置文件实例化类,也就无法找到相应的方法...
基于solr5.x版本,在此之上,已经配置了相应的jar包,IKAnalyzer中文分词器,和一个简单的solrHome.下载之后可以直接放到tomcat的webapps路径下启动tomcat就能运行看到效果了。
IK Analyzer在Solr7.x版本中的应用,意味着它可以与Solr7.x完美集成,提供高效的中文分词功能,助力中文文本的检索和分析。 ** IK Analyzer简介** IK Analyzer诞生于2006年,由尹吉欢(Yin Jihuan)开发,旨在解决...
在Solr 5.x版本中,为了实现数据的定时更新,用户需要借助特定的扩展来实现定时生成索引。"apache-solr-dataimportscheduler-1.0.zip"是一个官方发布的54l版本,专门针对Solr 5.x的定时索引生成需求。 数据导入调度...
适应solr5.x的中文分词IKAnalyzer
solr.warsolr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包solr.war包...