如果想查看Solr4.x集成Tomcat7.x,查看怎样使用Solr中自带的Jetty来启动Solr的服务,可以查看我的其它博客。
一、下载Solr 5.3.1:
http://www.apache.org/dyn/closer.lua/lucene/solr/5.3.1
二、下载Tomcat8.x
http://archive.apache.org/dist/tomcat/tomcat-8/
三、参加一个Solr的总目录,比如在D盘,即 D:\Solr,在该目录下新建一个
目录:solr_home, 并且将解压后的Tomcat也放在D:\Solr中。
四、在 solr 压缩包中 即solr-5.3.1\server\solr-webapp\文件夹下有个webapp文件夹,将之复制到D:\Solr\Tomcat的webapps\目录下,并改成solr (名字随意,通过浏览器进行访问solr管理界面时要用到)
五、将 solr 压缩包中 solr-5.3.1\server\lib\ext 中的 jar 全部复制到 D:\Solr\Tomcat\ webapps\solr\WEB-INF\lib 目录中
六、将 solr 压缩包中 solr-5.3.1/ server/resources /log4j.properties 复制到D:\Solr\Tomcat\ webapps\solr\WEB-INF\lib 目录中
七、将 solr 压缩包中 solr-5.3.1/server/solr 目录下的内容复制到计算机某个solr_home目录下,即复制到D:\Solr\solr_home
八、设置Solr HOME
打开Tomcat/webapps/solr/WEB-INF下的web.xml,找到如下配置内容(初始状态下该内容是被注释掉的):
<env-entry>
<env-entry-name>solr/home</env-entry-name>
<env-entry-value>/put/your/solr/home/here</env-entry-value>
<env-entry-type>java.lang.String</env-entry-type>
</env-entry>
将<env-entry-value>中的内容改成你的solr_home路径,这里是D:/Solr/solr_home
九、保存关闭,而后启动tomcat,在浏览器输入
http://localhost:8080/solr即可出现Solr的管理界面
十、如何创建一个core : 比如创建一个叫universal的core
1. 在D:\Solr\solr_home\下创建一个文件夹叫univeral
2. 在universal下创建两个文件夹data和conf
3. 将solr5.3.1下的server\solr\configsets\basic_configs\conf目录下的内容都拷贝到上面新创建的conf目录中
4.启动Tomcat(即启动solr)
5.在浏览器中执行命令:
http://localhost:8080/solr/admin/cores?action=CREATE&name=universal&instanceDir=universal&config=solrconfig.xml&schema=schema.xml&dataDir=data
6.当看到如下返回时,说明新创建的core已经成功:
<response> <lst name="responseHeader"> <int name="status">0</int> <int name="QTime">2407</int> </lst> <str name="core">universal</str> </response>
7. 当然也可在Solr Admin管理界面中看到core已经被添加成功。
相关推荐
在windows7级以上版本,使用tomcat中间件,部署solr7.x,并创建开发工程文档。为想用solr做全文索引的人一起学习交流一下。
接下来,我们将介绍如何在Solr 7.x中集成并使用IK Analyzer。首先,我们需要解压“ik-analyzer-solr7.x.zip”,将解压后的“lib”目录下的所有JAR文件复制到Solr的“server/solr-webapp/webapp/WEB-INF/lib”目录下...
基于solr5.x版本,在此之上,已经配置了相应的jar包,IKAnalyzer中文分词器,和一个简单的solrHome.下载之后可以直接放到tomcat的webapps路径下启动tomcat就能运行看到效果了。
在描述中提到的"ik-analyzer-solr7.zip"是一个专门为Apache Solr 7.x版本定制的IKAnalyzer分词器插件。Solr是Apache软件基金会的一个项目,它是一款强大的全文搜索服务器,提供了诸如索引、搜索、高亮显示、拼写检查...
solr 6.x.x , ik 分词器, 可以实现对一段汉字进行分词处理, 支持配置扩展词语, 在分词时, 对特定词语不进行分词
Solr 是一个强大的开源搜索引擎,广泛应用于各类信息检索系统中。在处理中文文档时,一个优秀的中文分词工具是至关重要的。"IK中文分词工具"(Intelligent Chinese Word Segmentation,简称IK)就是专门为Solr设计的...
solr更新到6.x的版本了,ik-analyzer-5.x.jar又不好使了。 无意间从"随-忆"的博客中看到了如何去修改源代码,从而让分词器能够适应6.x的版本,亲自尝试了一下,果然可以,于是奉上了自己重新编译的jar包。 6.x的版本...
- **电商搜索系统构建**:通过一个完整的电商网站搜索系统的案例,展示如何运用Solr的各项高级功能来提高搜索质量和用户体验。 - **大规模日志分析平台**:介绍如何利用Solr进行海量日志数据的实时检索与分析,涉及...
ik-analyzer分词器,支持solr5-5.x
Solr是Apache Lucene项目的一个子项目,是一个高性能、全文本搜索服务器,广泛应用于企业级搜索引擎搭建。在Solr 5.x和6.x版本中,中文分词器扮演着至关重要的角色,它负责将中文文本拆分成有意义的词汇,便于索引和...
solr5.x版本集成ik分词器的jar包,解决了ik分词不支持solr5.x已上的接口
Solr 数据导入调度器(solr-dataimport-scheduler.jar)是一个专门为Apache Solr 7.x版本设计的组件,用于实现数据的定期索引更新。在理解这个知识点之前,我们需要先了解Solr的基本概念以及数据导入处理...
在实际应用中,配置IKAnalyzer与Solr集成时,你需要在Solr的schema.xml或managed-schema文件中定义字段类型,并指定使用IKAnalyzer。例如: ```xml <fieldType name="text_ik" class="solr.TextField" ...
这是属于Solr7.X版本的全量、增量更新jar包,有很多版本的这个jar包是没有更新过的,因为这个jar包是爱好者开发的,并不是官方维护,所以很难找到,我是用了两天才找到。
"apache-solr-dataimportscheduler-1.0.zip"是一个官方发布的54l版本,专门针对Solr 5.x的定时索引生成需求。 数据导入调度器(DataImportScheduler)是这个扩展的核心组件,它允许用户根据预设的时间间隔自动执行...
经过大量搜索,终于找到一个可以用于solr 6.0和6.1版本的IKAnalyzer分词器。 -------------------------------------------------------------- 请将该包解压到本地文档,阅读readme你就可以配置自己的IKAnalyzer...
IKAnalyzer5.2.1根据IKAnalyzer2012FF_u1_custom基础上修改,支持lucence5.x以上版本。增加连续数字、字母、英语及其组合智能分词(可关闭isIndistinct)支持lucence5.x以上版本。配置文件:...