`
brandNewUser
  • 浏览: 456405 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Solr在Linux中的产品化安装

阅读更多

目前服务器上安装的solr版本:5.3.1,不同于测试和研究,如果要把solr产品化部署,需要将其安装成一个服务。在solr压缩包中的bin/目录下有一个脚本文件**install_solr_service.sh**,负责solr的安装,并注册为自启动的service。

 

1. 环境准备

首先需要创建一个solr用户,并赋予其相应的权限:

groupadd zpsolr
useradd -g zpsolr zpsolr
passwd zpsolr
chown -R zpsolr:zpsolr /var/solr /usr/local/solrcloud/

同时也建立两个目录,用于将solr的安装文件与动态文件区分出来:

  • /var/solr, 动态文件目录,存在索引数据,日志等,与solr的安装目录不同,便于以后管理和升级

  • /usr/local/solrcloud,使用脚本安装时的缺省安装目录,安装文件会自动为solr目录建立一个软链接,指向对应的solr安装目录,便于以后的升级(solr -> /usr/local/solrcloud/solr-5.3.1)

此时/usr/local目录的文件类似下面的结构:

lrwxrwxrwx. 1 zpsolr zpsolr   31 1211 18:20 solr -> /usr/local/solrcloud/solr-5.3.1
drwxr-xr-x. 9 zpsolr zpsolr 4096 1211 18:20 solr-5.3.1
drwxr-xr-x. 3 zpsolr zpsolr 4096 1211 01:27 tmp
drwxr-xr-x. 4 zpsolr zpsolr 4096 1211 00:57 zookeeper

 

2. 安装服务脚本

solr中提供了在服务器上安装solr服务的相关脚本,注意需要root权限才可以安装成功:

 sudo bash ./bin/install_solr_service.sh ../solr-5.3.1.tgz -i /usr/local/solrcloud -d /var/solr -u zpsolr -s solr -p 8983

这里就指定了solr安装目录,数据和配置文件目录,使用用户,服务名称以及默认http端口等信息,其中的solr脚本参数说明:

  • -d 动态文件目录,缺省为“/var/solr”
  • -i solr加压安装目录,缺省为“/opt”
  • -p 工作/监听端口,缺省为“8983”
  • -s 安装成Linus服务的名字,缺省为“solr”
  • -u 运行solr的用户名,如果用户不存在,会自动创建,缺省为“solr”

服务安装完成后,就可以通过service的方式来对solr服务进行启动/停止操作:

sudo service solr start/stop/status ...

 

3. solr基本目录结构

├── data
│   ├── brand
│   │   ├── core.properties
│   │   └── datasolr索引数据目录)
│   ├── conf
│   │   └── dataimport.properties
│   ├── lib
│   │   ├── mmseg4j-core-1.10.0.jar
│   │   ├── mmseg4j-solr-2.3.0.jar
│   │   ├── mysql-connector-java-5.1.37.jar
│   │   ├── solr-1.0.0.jar
│   │   ├── solr-dataimporthandler-5.3.1.jar
│   │   └── solr-dataimporthandler-extras-5.3.1.jar
│   ├── solr.xml
├── logs
│   ├── solr-8983-console.log
│   ├── solr_gc.log
│   ├── solr.log
├── log4j.properties
├── logs
├── solr-8983.pid
└── solr.in.sh

 

3.1 solr.in.sh

该文件用户配置solr启动的模式,对应的java虚拟机参数等信息,对应的solrHome等信息:

SOLR_PID_DIR=/var/solr
SOLR_HOME=/var/solr/data
LOG4J_PROPS=/var/solr/log4j.properties
SOLR_LOGS_DIR=/var/solr/logs
SOLR_PORT=8983

solr从5版本后就已经加入了集群模式,在solr.in.sh文件中配置ZK_HOST,就会以solrCloud模式启动,不同的solr节点可以注册到同一个zookeeper目录上,这样就会组成一个集群。

 

3.2 data

data目录中存放了比较关键的各个collection配置,每个collection以文件夹的方式存放,collection中存放了对应的配置目录以及数据目录,配置目录中会存在对应的描述文件。

但如果是solrCloud模式,collection是统一建立的,而且在建立之前必须要将所有的配置事先上传到zookeeper上,对于上传和下载collection,可以使用solrcloud中提供的脚本就可以:

/usr/local/solrcloud/solr/server/scripts/cloud-scripts/zkcli.sh -zkhost 127.0.0.1:9983 -cmd upconfig -confname my_new_config -confdir server/solr/configsets/basic_configs/conf

/usr/local/solrcloud/solr/server/scripts/cloud-scripts/zkcli.sh -cmd downconfig -zkhost 192.168.1.162:2181,192.168.1.163:2181,192.168.1.165:2181/solrcloud -confname evaluation -confdir .

单机模式下,配置文件仅存放在data/conf目录下即可。

 

4. Solr整体结构

一般情况下,solr与其他应用集成的应用场景如下图所示:

solr_integration.png

内容关系系统中从数据源(一般为Database)获得数据,索引至solr服务中,便于终端用户使用solr服务从文档列表中查询出对应的信息。

DiagramOfTheMainComponentsOfSolr4cn.jpg

Solr中提供了 RestAPI, 可用于常用的solr操作,例如典型的 创建collection,增加replica,增加shard等,基本的url为:http://:/solr。

每个solr实例中,都有一个solr.xml文件,指定了Solr Server的实例位置,对于每个solr core,都存在

  • core.properties:为每个core定义其名称,属于哪个集合(collection);
  • conf/solrconfig.xml,控制更高的行为,可以指定其他位置来存储数据信息;
  • conf/schema.xml,在5.5版本中已经更名为managed-schema,其中描述了需要solr索引的内容配置,在其中可以将一个Document定义为多个field的属性集合,这些field属性定义了solr处理器如何处理field值以及query field值;
  • data目录中包含了各种索引后的文件。

注意在SolrCloud模式中,并没有包含conf目录,这些被保存在了zookeeper中以便能够夸服务器使用。

从Solr的视角来看,基本的信息单元是文档Document,文档是由一部分描述信息组成,具体来说,是一些字段的集合。而字段可以包含不同类型的数据,具体化到一双鞋子的名称,颜色,尺码,都属于这个鞋子(Document)的字段(Field)。

当向Solr中增加一个文档(Document),Solr就会提取文档中的字段(Field)信息,并将其保存至索引(Index)中;当真正执行查询时,Solr就会可以快速地查询索引(index)并返回匹配的记录。

 

4.1 Field Analysis

就是solr如何对传进来的数据进行处理,如构建索引。假设有个个人简介的Field,他里面包括了很多单词,我们需要在构建索引完之后,通过检索某个单词就能查询到这个人,那么我们就需要对每个单词都进行索引,但是,一句话有很多语气助词,如果 a an or and not ,这些词我们又不需要为他们建索引,在构建索引的时候,需要排除出去。哪些单词我们要建索引,那些又不需要建立,这个分析的过程我们称为Field Analysis。

 

4.2 Field Type

solr如何去处理某个field的数据,以及这个Field在查询的时候处理。一个Field Type包括如下四部分信息:

  • 名字,name;
  • 实现类名,也就是solr中真正的类型的类名;
  • 如果FieldType是TextFiled类型,即还有analysis属性;
  • 属性;

拷贝字段(copy field),可以将所有的全文字段复制到一个字段中,便于后续对其进行统一的检索处理;你可能想让document的一些字段可以多次使用。solr 有一个字段复制机制,可以提交多个不同类型字段集中到一个字段。字段复制主要涉及两个概念,source和destination,一个是要复制的字段,另一个是要复制到哪个字段。其实说的简单一点,比如现在你要查询包涵“Java”的博客, 那么你肯定要查内容,标题是否包含Java,但是solr不能像SQL那样,where tittle like ‘%Java%’ or content like ‘%Java%’. 这个时候copyField就派上用场了, 定义一个新字段,将title和content 复制到这个新字段,索引的时候,直接从这个新字段查询,这样就达到目地了。 这便是copyField的典型应用场景。

动态字段(dynamic field),可以不用指定具体字段的名称,只要定义字段名称的规则,例如name为 *_i,那么所有以_i结尾的字段都符合该定义。动态字段(Dynamic fields)允许 solr 索引没有在 schema 中明确定义的字段。这个在忘记定义一些字段时很有用。动态字段可以让系统更灵活,通用性更强。动态字段和常规字段类似,除了它名字中包含一个通配符外,在索引文档时,一个字段如果在常规字段中没有匹配时,将到动态字段中匹配。假设schema中定义了一个叫*_i的动态动态字段,如果要索引一个叫 cost_i 的字段,但是 schema 中不存在 cost_i 的字段,这样 cost_i 将被索引到*_i字段中。动态字段也是定义在 schema.xml 文件中,和其他字段一样,它也有个名词,字段类型,和属性。

 

4.3 schema.xml文件

schema.xml这个配置文件的根本目的是为了通过配置告诉Solr如何建立索引,而到了V5版本,该文件已经被conf/managed-schema代替,文件的格式是一样的。

solr的数据结构如下:
* document:一个文档、一条记录
* field:域、属性

solr通过搜索某个或某些field,返回若干个符合条件的document,或者按搜索的score排序返回。如果跟数据库对比,document相当于数据库的表,field相当于表中的字段。而schema.xml就是为了定义一个表的结构(定义各个field的名字、类型、约束、等等)。

schema.xml的基本结构如下:

<schema>
    <types>
    <fields>
    <uniqueKey>
    <copyField>
</schema>

常用的配置说明:

  • field:定义一个document中的各个fields
  • name:必填。该field的名字。前后都有下划线的name是系统保留的名字,比如“_version_”
  • type:必填。类型,对应于fieldType的name
  • default:该field的缺省值
  • indexed:true/false,是否为该field建立索引,以让用户可以搜索它、统计它(facet)
  • stored:true/false,定义这个field是否可以返回给查询者
  • multiValued:true/false,是否可以容纳多个值(比如多个copyField的dest指向它)。如果是true,则该field不能被排序、不能作为uniqueKey
  • required:true/false,告诉solr这个field是否接受空值,缺省为false
  • docValues:true/false,建立document-to-value索引,以提高某些特殊搜索的效率(排序、统计、高亮)
    copyField:把一个field的内容拷贝到另外一个field中。一般用来把几个不同的field copy到同一个field中,以方便只对一个field进行搜索
  • source:被拷贝的field,支持用通配符指定多个field,比如:*_name
  • dest:拷贝到的目的field
  • maxChars:最大字符数
    uniqueKey:指定一个field为唯一索引
    fieldType:定义field的类型,包括下面一些属性
  • name:必填,被field配置使用
  • class:必填,filedType的实现类。solr.TextField是路径缩写,“等价于”org.apache.solr.schema.TextField"
  • multiValued:?
  • positionIncrementGap:指定mutiValued的距离
  • ananlyzer:如果class是solr.TextField,这个配置是必填的。告诉solr如何处理某些单词、如何分词,比如要不要去掉“a”,要不要全部变成小写……
  • type:index或query
  • tokenizer:分词器,比如:StandardTokenizerFactory
  • filter:过滤器,比如:LowerCaseFilterFactory
    dynamicField:用通配符定义一个field来存在没有被field定义的漏网之鱼
  • name:使用通配符,比如“*_i”,来处理类似“cost_i”之类的field

 

4.4 理解分析器(Analysers),分词器(Tokenizers)和过滤器(Filters)

字段分析器在文档(document)被索引时,以及查询发生时被调用。分析器会检查文本中的字段,产生token流;分词器可以将一段文本数据分解成词汇单元,或者token;过滤器可以检查一段token流并决定是否做一些保留,转换,抛弃,分解等行为,分词器和过滤器可以以某种顺序(管道或是链条)来组合成分析器。

对于文本数据(solr.TextField),solr在建立索引和搜索的时候需要拆分它们、并做一些相应的处理(比如英文要去掉介词、转成小写、单词原形化等,中文要恰当地要分词)。这些工作,一般由Analyzers、Tokenizers、和Filter来实现,这些都是在fieldType中进行配置的。

  • ananlyzer:告诉solr在建立索引和搜索的时候,如何处理text类型的内容,比如要不要去掉“a”、去掉介词、去掉复数,要不要全部变成小写等等……它在schema.xml文件中配置,可以直接指定一个类给它;也可以由tokenizer和filter的组合来实现;
  • type:可选参数,index或query,表名这个配置是在建立索引还是在搜索的时候使用;
  • tokenizer:分词器,比如:StandardTokenizerFactory;
  • filter:过滤器,比如:LowerCaseFilterFactory,小写转换;

Analyzer负责把文本field转成token流,然后自己处理、或调用Tokenzier和Filter进一步处理,Tokenizer和Filter是同等级和顺序执行的关系,一个处理完后交给下一个处理。

Tokenizer和Filter的区别:

  • Tokenizer:接收text(通过从solr那里获得一个reader来读取文本),拆分成tokens,输出token stream
  • Filter:接收token stream,对每个token进行处理(比如:替换、丢弃、不理),输出token stream

因此,在配置文件中,Tokenizer放在第一位,Filter放在第二位直到最后一位。

一个Tokenizer处理文本的例子:

输入:"Please, email john.doe@foo.com by 03-09, re: m37-xq."  
输出:"Please", "email", "john.doe", "foo.com", "by", "03", "09", "re", "m37", "xq"

 

5. Solr数据导入

DIH用于从数据库中抓取数据并创建索引,其中包括一系列相关的概念:

  • Datasource:数据源,包括获取数据必需的信息:数据位置(url)、数据库driver、登录账号和密码
  • Entity:相当于数据库的一个视图,可以从一个表或联表查询获得
  • Processor:数据处理器,负责从数据源中获取数据、处理、然后加入到索引中
  • Transformer:数据转换器,可选,负责修改数据、创建新的field、或根据需要把一条记录变成多条记录

要使用data import handler,首先需要在solrconfig.xml中添加requestHandler(从命名来看,requestHandler更像是用于请求处理器,提供暴露solr向外的服务接口, /dataimport跟/select属于平级)。

  <requestHandler name="/dataimport" class="solr.DataImportHandler">
    <lst name="defaults">
      <str name="config">db-data-config.xml</str>
    </lst>
  </requestHandler>

config参数负责指定DIH配置文件的位置,如果需要添加jar包依赖,需要在该文件中增加lib标签:

<lib dir="${solr.install.dir:../../../..}/dist/" regex="solr-dataimporthandler-.*\.jar" />

DIH配置文件的格式为:

根节点:

  • dataSource
    • type: 数据源类型,如:JdbcDataSource(缺省值),采用SqlEntityProcessor
    • driver: 数据库驱动,如:com.mysql.jdbc.Driver
    • convertType:
    • url: 数据库url
    • user: 你懂的
    • password: 你懂的
  • document
    • entity
      • name: 随便起的一个标志,可以给嵌套的entity使用,比如${item.id}(假设name=“item”)
      • query: 拉取所有数据的语句
      • deltaQuery: 拉取delta数据的语句,如:deltaQuery=“select * from xxx where last_modified > ‘${dataimporter.last_index_time}’”
      • field: 指定 dataSource 的 field 和 solr 的field的对应关系,如:
      • entity: 嵌套的entity,定义一些一对多的数据。可以使用父entity的name作为条件,比如:where item_id=‘${item.id}’
      • transformer: 指定transformer对象,多个的话用逗号分开

通过HTTP请求(POST或GET)执行各种DIH操作:请求格式:http://:/ solr/ / dataimport? command=,其中的各种如下:

  • abort:停止当前正在进行的操作
  • delta-import:调用deltaQuery拉取数据。可以带上几个额外的参数:&clean=true&commit=true等等(和full_import相同)
  • full-import:调用query拉取所有数据。请求会马上返回,后台有新线程执行重建索引的操作。可以通过status操作查询状态。额外参数:
  • clean:缺省为true。是否在开始重建索引前清除旧索引
  • commit:缺省为true。是否提交操作请求
  • debug:缺省为false。debug模式,不会commit操作。如果同时需要commit,得带上commit=true参数
  • entity:缺省为所有的entity。可以指定某一个或多个entity
  • optimize:缺省为true。是否需要在完成操作后优化索引
  • reload-config:如果修改了配置文件,执行这个命令使它生效
  • status:返回各种统计数据、以及DIH的当前状态

 

6. SolrCloud迁移数据

如果将solrCloud向solr单点迁移的话,比较简单,直接将在zookeeper上的配置download到本地,将其放在在本地保存到conf目录即可(注意,zk的目录结构与本地会有所不同),然后在solr.in.sh中去掉ZK_HOST一行或将其注释掉,重启即可。

但如果将solr单点组成solrCloud,会有所不同,而且也会比较麻烦,原因是组成的solrCloud集群可能会有一些服务器明明可以提供服务,但在clusterstatus中会显示失败(down状态),此时就需要先将replica删除。

在api中可以先删除replica,注意需要提供replica name,在本地文件中的 core.properties,

name=brand_brand_replica1  
shard=brand    
collection=brand
coreNodeName=core_node2

其中coreNodeName就是对应的replicaName,通过REST API中的DELETE URL即可。

对于solr服务节点,均为CPU消耗型,最好部署在8核CPU上,其中在solr.in.sh中JVM_OPTS设置为3096M(不可以设置过大,否则会导致一次FullGC的过程太慢)。

分享到:
评论

相关推荐

    solr-4.10.3

    在Solr-4.10.3中,这一特性已经相当成熟,支持自动分片、故障转移和负载均衡,使得Solr可以处理大规模的数据和高可用性需求。 2. **索引和查询**:Solr的核心功能在于构建高效的全文索引和执行复杂的查询。4.10.3...

    solr-7.1.0.zip solr搜索引擎安装包

    在Solr 7.1.0中,用户可以创建多个独立的搜索“集合”或“核心”,每个集合都可以有自己的索引和配置。这样,你可以为不同的数据集或业务需求设置独立的搜索环境。例如,一个集合用于产品数据,另一个用于用户评论。...

    云计算hadoop伪集群+hbase安装配置手册(伪集群)

    2. **设置权限**:确保安装过程中有正确的用户权限,通常情况下使用root用户来进行安装较为方便。 3. **安装基础软件包**:安装必要的基础软件包,如SSH、Git等,以便后续操作。 4. **软件包准备**:确保所有必要的...

    nutch_1.4配置

    2. **Cygwin**:由于Nutch的脚本采用Linux Shell编写,故在Windows环境中需使用Cygwin作为Shell解释器,模拟Linux系统环境。 3. **Nutch 1.4**:下载并解压至任意磁盘根目录,建议保留默认名称或自定义便于识别的...

    java+oracle+项目经理

    在项目经历中,求职者特别提到了自动化测试产品线的管理。自动化测试是现代软件开发流程中的重要环节,它能够提高测试效率,减少人为错误。项目经理在这个角色中需要协调售前、研发和验收等各个环节,确保新产品能够...

    ElasticSearch入门篇.docx

    **2.4 安装图形化插件** - **Elasticsearch-Head**: - 下载并安装Elasticsearch-Head插件。 - 配置插件连接ElasticSearch实例。 - 通过Web浏览器访问插件界面进行操作。 #### 三、ElasticSearch 核心概念 **...

    巴巴运动网day01

    例如,在这个项目中,主要涉及的是运动产品的销售和服务。 - **环境搭建**:这一步骤涉及到软件开发环境的配置,包括开发工具的选择、服务器的配置、数据库的设置等。例如,使用Eclipse作为开发环境,MySQL作为...

    开源中国源码

    3. 项目已经接入了solr,程序安装需要先运行solr,solr已调试好,可直接启动,使用方法可访问官网查看; 4. 项目用到了阿里大于jar包,Maven时无法使用,可以下载doc/dysmsapi.zip,然后放本地的Maven的.m2\...

    hadoop笔记2.pdf

    例如,在安装和配置Hadoop集群时,需要使用Linux命令进行环境设置,以及编写shell脚本来自动化管理任务。 在搭建Hadoop大数据平台时,通常会用到CentOS这个稳定的操作系统。在新建CentOS7虚拟机时,需要注意配置根...

    Java开发_4年.docx

    Java开发工程师,拥有四年的工作经验,曾在vivo移动通信有限公司印度分公司担任软件开发部印度工具组经理,负责团队管理和资源协调,以及组织产品设计和开发进度的调整。在vivo东莞总部,他作为软件开发工程师,参与...

    Java面试参考简历.docx

    - 在**杭州米人科技有限公司**担任**Java开发工程师**期间,参与了方案讨论和技术调研,编写了软件工程文档和开发文档,并承担了相关产品模块功能的设计、编码开发与单元测试等工作。 #### **项目经验** - **明宇...

    参考简历模板三.doc

    - **项目描述**:该项目旨在实现物流信息的代码化、数据库化,提高物流信息处理的电子化和计算机化程度,确保物流信息传递的标准化和实时化,实现物流信息存贮的数字化和物流业务数据的共享化,以“信息流”引导...

    python学习计划

    在当前的 IT 行业中,Python 成为了最受欢迎的编程语言之一,不仅因为它语法简洁易学,更重要的是其强大的功能和广泛的应用场景。对于求职者而言,掌握 Python 不仅能够提升个人竞争力,还能够拓宽职业发展的道路。 ...

    LegendShop 技术介绍

    - **精细化管理**:精心构建精英团队,精细化管理市场需求与产品研发流程,确保二者高效平衡。 - **企业文化**:强调以价值为导向、以人为本,实现员工与企业的双赢发展。 #### 三、LegendShop介绍 LegendShop的...

    在基础任务的前提下,实现电子琴的设计。使用OK-6410开发板实现PWM驱动蜂鸣器制作简易电子琴,通过局域网实现电脑按键控制或者

    key.ko和pwm.ko可能是编译后的模块文件,用于在Linux系统中动态加载和使用。ll可能是一个链接脚本,用于指导编译器如何生成目标文件。而两个Makefile(Makefile1和Makefile2)则是构建系统的一部分,用于自动化编译...

Global site tag (gtag.js) - Google Analytics