机器上已安装 : Tomcat 6.0 jdk1.7 mysql 5.0
1 访问 http://www.apache.org/dyn/closer.cgi/lucene/solr , 在这个网址里选择一个路径 , 下载
solr 3.5 的版本
2 solr3.5 在本机解压缩以后 , 把 apache-solr-3.5.0\example\webapps 目录下的 solr.war
文件拷贝到 Tomcat 6.0 的webapps 目录下
3 在 Tomcat 6.0\webapps\solr 目录里 新建一个 文件夹 conf
4 把 solr3.5 本机解压缩文件夹 apache-solr-3.5.0\example 下的 multicore 文件夹 考本到
Tomcat 6.0\webapps\solr\conf 目录下
5 在 Tomcat 6.0\conf\Catalina\localhost 目录下新建一个 solr.xml 文件 , 里面的内容如下
<?xml version="1.0" encoding="UTF-8"?>
<Context
docBase="${catalina.home}/webapps/solr.war" debug="0" crossContext="true"
>
<!-- 这里配置的是 Solr 运行的 Home 目录 -->
<Environment name="solr/home" type="java.lang.String"
value="${catalina.home}/webapps/solr/conf/multicore" override="true" />
</Context>
6 访问你的 solr 项目 localhost:8080/solr 会显示出两个 core , solr 正常运行
7 配置分词 , 使用的是 mmseg4j 和 搜狗词库 ,
下载地址 : http://code.google.com/p/mmseg4j/ ,
http://code.google.com/p/mmseg4j/downloads/detail?name=data.zip&can=2&q
8 把本地下载的 mmseg4j 解压缩 , 把里面的mmseg4j-all-1.8.5.jar 文件 拷贝到 Tomcat
6.0\webapps\solr\WEB-INF\lib 目录下
9 在 Tomcat 6.0\webapps\solr 目录下新建一个 dic 文件夹 , 把 新下载的 词库 拷贝到 dic
目录下
10 在 \Tomcat 6.0\webapps\solr\conf\multicore\core0\conf\schema.xml 文件的
types 节点里 添加如下节点 :
<fieldtype name="textComplex" class="solr.TextField"
positionIncrementGap="100">
<analyzer>
<tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory"
mode="complex" dicPath="E:/Program Files/Apache Software Foundation/Tomcat
6.0/webapps/solr/dic">
</tokenizer>
</analyzer>
</fieldtype>
<fieldtype
name="textMaxWord" class="solr.TextField" positionIncrementGap="100">
<analyzer>
<tokenizer
class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="maxword"
dicPath="E:/Program Files/Apache Software Foundation/Tomcat
6.0/webapps/solr/dic">
</tokenizer>
</analyzer>
</fieldtype>
<fieldtype
name="textSimple" class="solr.TextField" positionIncrementGap="100">
<analyzer>
<tokenizer
class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="simple"
dicPath="E:/Program Files/Apache Software Foundation/Tomcat
6.0/webapps/solr/dic">
</tokenizer>
</analyzer>
</fieldtype>
11 在 \Tomcat 6.0\webapps\solr\conf\multicore\core0\conf\schema.xml 文件的
fields 节点里 添加如下节点 :
<field name="simple" type="textSimple" indexed="true" stored="true"
multiValued="true" />
<field name="complex" type="textComplex"
indexed="true" stored="true" multiValued="true" />
<field name="text"
type="textMaxWord" indexed="true" stored="true" multiValued="true" />
12 因为 solr3.5 里有两个 core , 所以针对 core1 重复 10,11 两步
13 对分词进行测试 , 访问
http://localhost:8180/solr/core0/admin/analysis.jsp?highlight=on
13.1 Field[Name] 输入 : complex
13.2 Field Value(index) 输入 : 中国银行第一分行 , Field Value(index) 下面的
verbose outpu 点选
13.3 点击 Analyze 按钮 , 查看分词结果 : 中国银行 | 第一 | 分行
14 此时 Solr3.5 已经可以进行 分词 , 接下来配置 solr 3.5 连接 mysql 数据库 , 生成索引 , 进行分词
14.1 下载 java 的 mysql 驱动 , 本机解压 mysql-connector-java-5.1.18-bin.jar, 然后拷贝到
Tomcat 6.0\webapps\solr\WEB-INF\lib 目录下
14.2 在 \Tomcat 6.0\webapps\solr 目录下 新建 db 文件夹
14.3 在 \Tomcat 6.0\webapps\solr\db 文件夹下面新建一个 db-data-config.xml 文件 , 内容如下
:
<dataConfig>
<dataSource type="JdbcDataSource"
driver="com.mysql.jdbc.Driver" url="jdbc:mysql://localhost:3306/test"
user="root" password="123" />
<document name="messages">
<entity name="message" transformer="ClobTransformer" query="select *
from test1">
<field column="ID" name="id" />
<field column="Val" name="text" />
</entity>
</document>
</dataConfig>
url="jdbc:mysql://localhost:3306/test" user="root" password="123" 这里配置了
mysql 的连接路径 , 用户名 , 密码
<field column="ID" name="id" /><field column="Val" name="text"
/> 这里配置的是 数据库里要索引的字段 , 注意name 是 11 步配置的
14.4 在 Tomcat 6.0\webapps\solr\conf\multicore\core0\conf 目录下的
solrconfig.xml 文件里 , 添加如下代码 :
<requestHandler name="/dataimport"
class="org.apache.solr.handler.dataimport.DataImportHandler">
<lst
name="defaults">
<str name="config">E:/Program Files/Apache
Software Foundation/Tomcat
6.0/webapps/solr/db/db-data-config.xml</str>
</lst>
</requestHandler>
“E:/Program Files/Apache Software Foundation/Tomcat
6.0/webapps/solr/db/db-data-config.xml” 是 14.3 配置文件的绝对路径
14.5 在Tomcat 6.0\webapps\solr\conf\multicore\core1\conf\solrconfig.xml
路径里重复 14.4
14.6 把本地下载解压的 solr3.5 文件里 , dist 目录下的
apache-solr-dataimporthandler-3.5.0.jar 和
apache-solr-dataimporthandler-extras-3.5.0.jar Tomcat
6.0\webapps\solr\WEB-INF\lib 目录下
14.7 solr3.5 连接 mysql 已经配置完成 , 测试读取 mysql 生成 索引 , 访问 :
http://localhost:8180/solr/core0/dataimport?command=full-import
14.8 测试分词查询 , 访问 http://localhost:8180/solr/core0/admin/
查询数据库里索引列里有的词
注意 , 这仅仅是配置 solr3.5 连接 mysql 生成索引 , 可以执行正常 词语 的查询 , 但是不能执行 对搜索短语的分词 查询
multicore 目录下面多个 core 文件夹 , 每一个都是一个接口 , 有独立的配置文件 , 处理某一类数据 。
multicore/core0/conf/ 目录下的 schema.xml 文件 相当于数据表配置文件 , 它定义了加入索引的数据的数据类型
。文件里有一个 <uniqueKey>id</uniqueKey> 的配置 , 这里将 id 字段作为索引文档的唯一标示符 , 非常重要
。
FieldType 类型 , name 是这个 FieldType 的名称 , class 指向了 org.apache.solr.analysis
包里面对应的 class 名称 , 用来定义这个类型的定义 。在 FieldType
定义的时候最重要的就是定义这个类型的数据在建立索引和进行查询的时候要使用的分析器analyzer,包括分词和过滤 。
Fields 字段 : 结点内定义具体的字段(类似数据库中的字段) , 就是 field , 包含 name ,
type(为之前定义过的各种FieldType) , indexed(是否被索引) , stored(是否被存储) ,
multiValued(是否有多个值)
copeField(赋值字段): 建立一个拷贝字段 , 将所有的全文字段复制到一个字段中 , 以便进行统一的检索 。
[转载文章:http://hi.baidu.com/duogemajia/blog/item/e222b1d0d57aec269a50275e.html]
分享到:
相关推荐
- **依赖关系**:Solr依赖于Lucene的核心库来实现其搜索功能,文中提到的Solr 3.5版本实际对应的是Lucene 3.5版本。 #### 二、环境准备 - **Tomcat版本**:使用Tomcat 6.0.20作为Web应用服务器。 - **分词器选择**...
"企业级搜索引擎Solr使用入门指南.mht"可能是一个全面的入门指南,适合初次接触Solr的企业级开发者,涵盖了从安装到实际应用的各种基础知识。 "solr性能调优.mht"文件专门针对Solr的性能优化,包括索引优化、硬件...
基于改进粒子群算法的DG储能选址定容优化模型:解决电力系统时序性问题的可靠程序解决方案,基于改进粒子群算法的DG储能选址定容模型优化解决电力系统问题,DG储能选址定容模型matlab 程序采用改进粒子群算法,考虑时序性得到分布式和储能的选址定容模型,程序运行可靠 这段程序是一个改进的粒子群算法,主要用于解决电力系统中的优化问题。下面我将对程序进行详细分析。 首先,程序开始时加载了一些数据文件,包括gfjl、fljl、fhjl1、cjgs和fhbl。这些文件可能包含了电力系统的各种参数和数据。 接下来是一些参数的设置,包括三种蓄电池的参数矩阵、迭代次数、种群大小、速度更新参数、惯性权重、储能动作策略和限制条件等。 然后,程序进行了一些初始化操作,包括初始化种群、速度和适应度等。 接下来是主要的迭代过程。程序使用粒子群算法的思想,通过更新粒子的位置和速度来寻找最优解。在每次迭代中,程序计算了每个粒子的适应度,并更新个体最佳位置和全局最佳位置。 在每次迭代中,程序还进行了一些额外的计算,如潮流计算、储能约束等。这些计算可能涉及到电力系统的潮流计算、功率平衡等知识点。 最后,程序输
数学建模相关主题资源2
内容概要:本文详细介绍了一系列用于科学研究、工程项目和技术开发中至关重要的实验程序编写与文档报告撰写的资源和工具。从代码托管平台(GitHub/GitLab/Kaggle/CodeOcean)到云端计算环境(Colab),以及多种类型的编辑器(LaTeX/Microsoft Word/Overleaf/Typora),还有涵盖整个研究周期的各种辅助工具:如可视化工具(Tableau)、数据分析平台(R/Pandas)、项目管理工具(Trello/Jira)、数据管理和伦理审核支持(Figshare/IRB等),最后提供了典型报告的具体结构指导及其范本实例链接(arXiv/PubMed)。这为实验流程中的各个环节提供了系统的解决方案,极大地提高了工作的效率。 适合人群:高校学生、科研工作者、工程技术人员以及从事学术写作的人员,无论是新手入门还是有一定经验的人士都能从中受益。 使用场景及目标:帮助读者高效地准备并开展实验研究活动;促进团队间协作交流;规范研究报告的形式;提高对所收集资料的安全性和隐私保护意识;确保遵循国际公认的伦理准则进行实验。
四轮毂驱动电动汽车稳定性控制策略:基于滑模与模糊神经网络的转矩分配与仿真研究,四轮毂驱动电动汽车稳定性控制:基于滑模与模糊神经网络的转矩分配策略及联合仿真验证,四轮毂驱动电动汽车稳定性控制,分布式驱动转矩分配。 上层基于滑模,模糊神经网络控制器决策横摆力矩,下层基于动态载荷分配,最优分配,平均分配均可做。 simulink与carsim联合仿真。 ,四轮毂驱动;电动汽车稳定性控制;分布式驱动;转矩分配;滑模控制;模糊神经网络控制器;横摆力矩;动态载荷分配;最优分配;平均分配;Simulink仿真;Carsim仿真,四驱电动稳定性控制:滑模与模糊神经网络决策的转矩分配研究
本资源提供了一份详细的PyCharm安装教程,涵盖下载、安装、配置、激活及使用步骤,适合新手快速搭建Python开发环境。
毕业设计
原版宋体.ttf,原版宋体安装文件,安装方式,直接右键安装。
利用Xilinx FPGA内嵌的软核处理器MicroBlaze,加上自主编写的AXI_IIC控制器,实现对IMX327传感器IIC总线的控制,同时辅以UART调试串口,实现系统状态的实时监控与调试。
在 GEE(Google Earth Engine)中,XEE 包是一个用于处理和分析地理空间数据的工具。以下是对 GEE 中 XEE 包的具体介绍: 主要特性 地理数据处理:提供强大的函数和工具,用于处理遥感影像和其他地理空间数据。 高效计算:利用云计算能力,支持大规模数据集的快速处理。 可视化:内置可视化工具,方便用户查看和分析数据。 集成性:可以与其他 GEE API 和工具无缝集成,支持多种数据源。 适用场景 环境监测:用于监测森林砍伐、城市扩展、水体变化等环境问题。 农业分析:分析作物生长、土地利用变化等农业相关数据。 气候研究:研究气候变化对生态系统和人类活动的影响。
毕业设计
整个文件的代码
名字微控制器_STM32_DFU_引导加载程序_dapboo_1740989527.zip
详细介绍及样例数据:https://blog.csdn.net/T0620514/article/details/145991332
anaconda配置pytorch环境
立体仓库控制组态王6.55与三菱PLC联机仿真程序:视频教程与IO表接线图CAD详解,9仓位立体仓库控制系统优化方案:组态王6.55与三菱PLC联机仿真程序视频教程及IO表接线图CAD详解,9仓位立体仓库控制组态王6.55和三菱PLC联机仿真程序+视频+带io表接线图CAD ,关键词:立体仓库;控制组态王6.55;三菱PLC;联机仿真程序;视频;io表接线图;CAD,立体仓库控制组态王与三菱PLC联机仿真程序资源包
基于Maxwwell设计的经典外转子永磁同步电机案例:直流母线24V,大功率与高效率驱动设计,基于Maxwell设计的经典永磁同步电机案例:200W功率,外转子结构,直流母线电压与电机参数详解,基于maxwwell设计的经典200W,2200RPM 外转子,直流母线24V,42极36槽,定子外径81.5 轴向长度15 ,0.86Nm, 永磁同步电机(PMSM)设计案例,该案例可用于生产,或者学习用 ,经典设计案例; 200W; 2200RPM外转子; 直流母线24V; 42极36槽; 定子外径81.5; 轴向长度15; 永磁同步电机(PMSM); 生产学习用。,经典200W永磁同步电机设计案例:Maxwell外转子,高效率2200RPM直流母线系统
C# Modbus RTU协议主站设计工程源码详解:支持多从站访问与多线程实现,带注释开源dll文件,C# Modbus RTU协议主站设计工程源码解析:多线程实现访问多个从站功能的开源dll文件,C# Modbus RTU协议主站设计工程源码带注释,开源dll文件,支持访问多个从站,多线程实现 ,C#; Modbus RTU协议; 主站设计; 工程源码; 注释; 开源dll; 多从站访问; 多线程实现,《C# Modbus RTU主站源码:多线程支持访问多从站开源DLL文件详解》