Windows平台下在Tomcat7中搭建Solr 4.x(4.7.0)
一、下载并安装Tomcat7.0: http://tomcat.apache.org/download-70.cgi
二、下载并安装最新版本的Solr,截止目前为止为Solr4.7.0,windows上下载solr-4.7.0.zip
http://mirror.bit.edu.cn/apache/lucene/solr/
三、解压solr-4.7.0.zip到C:\Software目录下。
四、创建Solr工作目录(home目录),如:C:\solr-data
五、将 C:\Software\solr-4.7.0目录下的 example下的solr拷贝到我们上面创建的Solr工作目录:C:\solr-data
六、将C:\Software\solr-4.7.0\dist下的solr-4.7.0.war文件复制到上面下载的Tomcat7.0.50的webapps下,并将该war包名字改成solr.war.(C:\Software\apache-tomcat-7.0.50\webapps)
七、从C:\Software\solr-4.7.0\example\lib\ext复制所有的jar包到C:\Software\apache-tomcat-7.0.50\lib下。
八、启动Tomcat,在Tomcat的webapps下会成功的解压出solr包。
九、停止Tomcat修改webapps\solr\WEB-INF\web.xml,添加如下内容:
<env-entry>
<env-entry-name>solr/home</env-entry-name>
<env-entry-value>C:\solr-data\solr</env-entry-value>
<env-entry-type>java.lang.String</env-entry-type>
</env-entry>
十、建议删除webapps下的war包,然后重新启动Tomcat,此时可验证Solr是否安装成功: http://localhost:8080/solr
十一、如果想使用Solr Velocity Search UI,则可以使用url:http://localhost:9898/solr/browse
如果出现Exception: Caused by: java.lang.ClassNotFoundException: solr.VelocityResponseWriter
解决办法是将解压出的solr的dist目录下的所有jar以及contrib/velocity下的所有jar放到Tomcat Solr目录WEB-INF目录下。重新启动tomcat 即可。
相关推荐
《IK Analyzer在Solr 7.x中的应用与配置详解》 IK Analyzer,全称为"Intelligent Keyword Analyzer",是一款基于Java实现的、广泛应用于搜索引擎和NLP(自然语言处理)领域的中文分词器。它以其高效、灵活和高度可...
<fieldType name="text_ik" class="solr.TextField" positionIncrementGap="100"> <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true"/> <tokenizer class="org.wltea....
在windows7级以上版本,使用tomcat中间件,部署solr7.x,并创建开发工程文档。为想用solr做全文索引的人一起学习交流一下。
在Solr6.x中集成IK中文分词器,需要完成以下步骤: 1. 下载IK分词器的对应版本,确保与Solr6.x兼容。 2. 将下载的`solr6.x_IK中文分词工具`解压,将`lib`目录下的jar文件复制到Solr的`server/solr-webapp/webapp/...
### Apache Solr 7.x Mastering Guide:提升、优化与扩展企业级搜索技术详解 #### 知识点一:Apache Solr 7.x 概览 - **版本更新要点**:本书聚焦于Apache Solr 7.x版本的核心特性和新增功能,包括性能提升、稳定性...
solr 6.x.x , ik 分词器, 可以实现对一段汉字进行分词处理, 支持配置扩展词语, 在分词时, 对特定词语不进行分词
总的来说,solr-dataimport-scheduler.jar是Solr 7.x版本中实现定时数据导入和索引更新的关键工具,它极大地提升了Solr在实时和大数据环境下的性能和可靠性。通过合理配置和使用,可以确保你的Solr实例始终拥有最新...
这是属于Solr7.X版本的全量、增量更新jar包,有很多版本的这个jar包是没有更新过的,因为这个jar包是爱好者开发的,并不是官方维护,所以很难找到,我是用了两天才找到。
使用IKAnalyzer在Solr4.X中的步骤通常如下: 1. **下载和解压**:首先,你需要下载匹配Solr4.x版本的IKAnalyzer jar包,这通常包括核心jar文件和其他必要的资源文件。 2. **替换原有分词器**:将下载的IKAnalyzer ...
solr更新到6.x的版本了,ik-analyzer-5.x.jar又不好使了。 无意间从"随-忆"的博客中看到了如何去修改源代码,从而让分词器能够适应6.x的版本,亲自尝试了一下,果然可以,于是奉上了自己重新编译的jar包。 6.x的版本...
基于solr5.x版本,在此之上,已经配置了相应的jar包,IKAnalyzer中文分词器,和一个简单的solrHome.下载之后可以直接放到tomcat的webapps路径下启动tomcat就能运行看到效果了。
网上有很多关于IKAnalyzer分词器的jar,但当我们使用solr 6.x进行配置的时候,就发现会各种各样的报错,最常出现的问题就是抽象方法错误,其实就是因为我们使用的IKAnalyzer版本和solr版本不匹配导致系统无法根据...
标题 "solr5.5.x的中文分词IKAnalyzer" 指的是...总的来说,使用IKAnalyzer在Solr 5.5.x中进行中文分词,可以帮助提高中文文本的搜索效率和准确性,同时通过自定义配置和扩展词典,可以更好地适应各种应用场景的需求。
<fieldType name="text_ik" class="solr.TextField"> <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true"/> <tokenizer class="org.wltea.analyzer.lucene....
IK Analyzer在Solr7.x版本中的应用,意味着它可以与Solr7.x完美集成,提供高效的中文分词功能,助力中文文本的检索和分析。 ** IK Analyzer简介** IK Analyzer诞生于2006年,由尹吉欢(Yin Jihuan)开发,旨在解决...
在Solr6.x中,为了实现中文分词,我们可以使用ikanalyzer,这是一个专门为中文设计的分析器,它能够有效地对中文文本进行分词。 ikanalyzer-solr5是一个专门为Solr5定制的ikanalyzer版本,但据描述所示,它同样可以...
<fieldType name="text_ik" class="solr.TextField"> <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true"/> <tokenizer class="org.wltea.analyzer.lucene....
ik-analyzer-solr-7.2.1.jar自己在lucene7.x,solr7.x,测试可使用。