在将solr模糊词搜索从 copyfield方式修改为 qf(query function)之后,其query的性能降低不少。原来是采用将所有需要搜索的字段都copy至同一个字段中,最近要根据模糊匹配结果的权重分析,这种方式根本无法满足要求,所以就采用了query function,这样就能定义不同字段的权重了,例如我们qf可以如下定义:
product_name^2.0 category_name^1.5 category_name1^1.5
搜索出来的结果会根据不同匹配的评分进行相似度排序。
但在性能测试过程中,其非常耗费内存,在solr查询服务中,我们打开了solr的搜索日志 solr.log,搜索日志的格式大概如下:
2016-10-19 13:31:26.955 INFO (qtp1455021010-596) [c:product s:shard1 r:core_node1 x:product] o.a.s.c.S.Request [product] webapp=/solr path=/select params={sort=salesVolume+desc&fl=product_id,salesVolume&start=0&q=brand_id:403+OR+category_id:141&wt=javabin&version=2&rows=100} hits=3098 status=0 QTime=3 2016-10-19 13:31:28.618 INFO (qtp1455021010-594) [c:product s:shard1 r:core_node1 x:product] o.a.s.c.S.Request [product] webapp=/solr path=/select params={mm=100&facet=true&sort=psfixstock+DESC,salesVolume+DESC&facet.mincount=1&facet.limit=-1&wt=javabin&version=2&rows=10&fl=product_id&facet.query=price:[*+TO+500]&facet.query=price:[500+TO+1000]&facet.query=price:[1000+TO+2000]&facet.query=price:[2000+TO+5000]&facet.query=price:[5000+TO+10000]&facet.query=price:[10000+TO+*]&start=0&q=*:*+AND+(category_id:243+OR+category_path:243)+AND+-category_path:309+AND+brand_id:401+AND+good_stop:0+AND+product_stop:0+AND+is_check:1+AND+status:1&facet.field=category_id&facet.field=brand_id&facet.field=color_id&facet.field=gender&facet.field=ctype&qt=/select&fq=price:[1000+TO+*]&fq=psfixstock:[1+TO+*]} hits=17 status=0 QTime=5 2016-10-19 13:31:30.867 INFO (qtp1455021010-614) [c:product s:shard1 r:core_node1 x:product] o.a.s.c.S.Request [product] webapp=/solr path=/select params={mm=100&facet=true&sort=price+ASC,goods_id+DESC&facet.mincount=1&facet.limit=-1&wt=javabin&version=2&rows=10&fl=product_id&facet.query=price:[*+TO+500]&facet.query=price:[500+TO+1000]&facet.query=price:[1000+TO+2000]&facet.query=price:[2000+TO+5000]&facet.query=price:[5000+TO+10000]&facet.query=price:[10000+TO+*]&start=0&q=*:*+AND+(category_id:10+OR+category_path:10)+AND+-category_path:309+AND+color_id:10+AND+gender:(0)+AND+good_stop:0+AND+product_stop:0+AND+is_check:1+AND+status:1&facet.field=category_id&facet.field=brand_id&facet.field=color_id&facet.field=gender&facet.field=ctype&qt=/select&fq=price:[5000+TO+*]&fq=psfixstock:[1+TO+*]} hits=9 status=0 QTime=7 2016-10-19 13:31:32.877 INFO (qtp1455021010-594) [c:product s:shard1 r:core_node1 x:product] o.a.s.c.S.Request [product] webapp=/solr path=/select params={mm=100&facet=true&sort=psfixstock+DESC,salesVolume+DESC&facet.mincount=1&facet.limit=-1&wt=javabin&version=2&rows=10&fl=product_id&facet.query=price:[*+TO+500]&facet.query=price:[500+TO+1000]&facet.query=price:[1000+TO+2000]&facet.query=price:[2000+TO+5000]&facet.query=price:[5000+TO+10000]&facet.query=price:[10000+TO+*]&start=0&q=*:*+AND+(category_id:60+OR+category_path:60)+AND+-category_path:309+AND+brand_id:61+AND+gender:(0)+AND+good_stop:0+AND+product_stop:0+AND+is_check:1+AND+status:1&facet.field=category_id&facet.field=brand_id&facet.field=color_id&facet.field=gender&facet.field=ctype&qt=/select&fq=price:[*+TO+*]&fq=psfixstock:[1+TO+*]} hits=5 status=0 QTime=8 2016-10-19 13:31:42.896 INFO (qtp1455021010-89) [c:product s:shard1 r:core_node1 x:product] o.a.s.c.S.Request [product] webapp=/solr path=/select params={mm=100&facet=true&sort=psfixstock+DESC,salesVolume+DESC&facet.mincount=1&facet.limit=-1&wt=javabin&version=2&rows=10&fl=product_id&facet.query=price:[*+TO+500]&facet.query=price:[500+TO+1000]&facet.query=price:[1000+TO+2000]&facet.query=price:[2000+TO+5000]&facet.query=price:[5000+TO+10000]&facet.query=price:[10000+TO+*]&start=0&q=*:*+AND+-category_path:309+AND+brand_id:323+AND+color_id:3+AND+good_stop:0+AND+product_stop:0+AND+is_check:1+AND+status:1&facet.field=category_id&facet.field=brand_id&facet.field=color_id&facet.field=gender&facet.field=ctype&qt=/select&fq=price:[*+TO+*]&fq=psfixstock:[1+TO+*]} hits=3 status=0 QTime=4
为了合理统计出query的QTime,编写了一个python脚本,用来在线分析每次solr查询的QTime和对应的查询条件:
import sys if __name__ == '__main__': input_file = sys.argv[1] min_time = 0 if len(sys.argv) < 3 else int(sys.argv[2]) try: with open(input_file) as file: while (1): line = file.readline().strip() if not line: break splits = line.split(" ") if not splits[len(splits) - 1].startswith("QTime"): continue q_time = int(splits[len(splits) - 1].replace('\n', '').replace('QTime=', '')) if q_time <= min_time: continue date = splits[0] time = splits[1] params = splits[13].split("&") dict = {} for param in params: keyValuePair = param.split("=") dict[keyValuePair[0]] = keyValuePair[1] query = dict.get('q', None) if query: print "%s - %s , QTime=% 5d, Query = %s" % (date, time, q_time, query) except IOError as error: print error
该脚本中可以分析solr.log中的日志并过滤出大于某端时间(毫秒)的QTime。经过分析发现此时的QTime大于1000ms的占据很大比例,说明我们配置的query function性能并不理想,至少相对于copy field来说。
通过jvisualvm监测发现full gc发生的频率非常高,cpu占用居高不下,请求响应时间发生抖动,且抖动的时候都是在该服务器的CPU使用率下降时发生的。
将线上的堆栈dump出来,经过JProfiler分析的hprof文件,占据大头的都是solr、lucene相关的类:
而且发现另外一个情况,老年代用400M左右常驻内存,而通常老年代涨到500M左右时就会发生一次Full GC(发生得非常频繁)。
需要我们调整JVM内部各个部分内存占用的比例,但收效甚微,接近10:1(MinorGC:FullGC)的GC,过多的FullGC次数使得应用程序的整体处理请求速度变慢:
初步分析觉得应该是Survivor的空间不足以存放某个大对象,使得新生代未被回收的对象直接晋升到老年代导致频繁GC,但是调高SurvivorRatio比例之后,发现该问题仍然没有得到解决。
当前solr的GC回收策略为CMSGC,据网上查找的该垃圾回收策略,可能会出现promotion failed和concurrent mode failure,经过我们查看当天的压测日志,确实这种情况非常多:
> grep "concurrent mode failure" solr_gc_log_20161018_* | wc -l 4919 > grep "promotion failed" solr_gc_log_20161018_* | wc -l 127
网上推荐的做法是:
http://blog.csdn.net/chenleixing/article/details/46706039 写道
promotion failed是在进行Minor GC时,survivor space放不下、对象只能放入老年代,而此时老年代也放不下造成的;concurrent mode failure是在执行CMS GC的过程中同时有对象要放入老年代,而此时老年代空间不足造成的(有时候“空间不足”是CMS GC时当前的浮动垃圾过多导致暂时性的空间不足触发Full GC)。
应对措施为:增大survivor space、老年代空间或调低触发并发GC的比率,但在JDK 5.0+、6.0+的版本中有可能会由于JDK的bug29导致CMS在remark完毕后很久才触发sweeping动作。对于这种状况,可通过设置-XX: CMSMaxAbortablePrecleanTime=5(单位为ms)来避免。
应对措施为:增大survivor space、老年代空间或调低触发并发GC的比率,但在JDK 5.0+、6.0+的版本中有可能会由于JDK的bug29导致CMS在remark完毕后很久才触发sweeping动作。对于这种状况,可通过设置-XX: CMSMaxAbortablePrecleanTime=5(单位为ms)来避免。
但经过综合考虑,没有能够正常调通该种策略,决定提升JVM的进程Heap内存至3.5G,并将原有响应式CMSGC替换成吞吐量优先的方式,减少FullGC次数和总体时间:
-Xmn2048m \ -XX:-UseAdaptiveSizePolicy \ -XX:SurvivorRatio=4 \ -XX:TargetSurvivorRatio=90 \ -XX:MaxTenuringThreshold=8 \ -XX:+UseParallelGC -XX:+UseParallelOldGC
经过这样调整后:Heap总体内存为3.5G,老年代1.5G,新生代总体2G,Eden区1.3G,两个Survivor区分别为300M。
但是空间提高之后也会出现其他的问题,发现老年代空间导致的一个重大问题就是,单次FullGC的时间会变得非常大,第一次gc时间居然超过5s,这也是由于单次回收的空间过高引起的:
原来总是以为是survivor区的空间不够大,当调大之后发现也不是这个问题,不过这种情况下运行一段时间后,总体还算是比较稳定,次数和时间也控制下来了,只不过进行FullGC时可能会发生STW(Stop The World),引起较长时间的停顿,如果是CMS方式就不会出现这种问题。
SurvivorRatio=2的设置也并不是非常合理,后续还是将其降低为4-5。
经过solr部分的测试,基本的结论还是比较符合预期的,相同条件下,对于analysed字段(进行分词操作的),其响应时间(Response Time)会比非analysed字段长很多,尤其是在压测条件下(图中最后一行就是模糊匹配,其他两个为精确匹配)。
SolrCloud导致的另外一些问题
经过solrCloud线上和测试环境对比验证,发现线上的多台服务性能居然要比单台要低,经过数据比对分析发现,我们当前的数据量还没有达到需要进行分片的要求,分片反而会导致性能下降,下面是我们当前的core部署结构,分成两个shard
在solr的debugQuery模式下,可以看到最终的QTime为两个QTime增加后的总和还要多一点,多出的时间应该是合并结果的时间。在数据量比较大的情况下,多分片会降低某一台服务器的负载。
如果将其做成单个shard,通过zookeeper连接solrCloud,增加replica的情况下,则只会将压力打到单台服务器上,这样做虽然比分片要快(在小数据集的情况下),但造成了服务资源的浪费。
我们决定采用折中方案,使用solrCloud来保证4台solr服务器的数据一致性(我们当前的数据变化不频繁),然后每台应用服务器选择一台solr服务器进行单机连接,这样也有一个问题就是损失了高可用性,但是在电商做活动期间,这样临时做是没有问题的,但需要保证每台服务器的其他core都是存在全面的数据,否则会出现某些节点没有对应core的错误。
相关推荐
在监控系统资源方面,通过 Linux 命令检查了 CPU 和 I/O 使用情况,以评估 Solr 在高负载下的性能表现。 测试结果显示: 1. 在 50x100 并发写入测试中,单节点的磁盘使用和 IO 情况与集群模式下有所不同。 2. 对比...
solr在做检索的时候时常需要得知他的性能参数,此处使用8G内存,双核处理器测试的结果
总之,Solr 的缓存机制是其高效搜索性能的关键组成部分。通过理解各种缓存类型、替换策略及其工作原理,我们可以更好地优化 Solr 配置,以满足特定应用场景的需求,提高搜索服务的响应速度和系统资源利用率。
Apache Solr 是一个开源的全文搜索引擎,由Apache软件基金会维护,是Lucene项目的一部分。它提供了高效、可扩展的搜索和导航功能,广泛应用于企业级的搜索应用中。Solr-8.11.1是该软件的一个特定版本,包含了最新的...
Solr 1.4版本是在2009年发布的稳定版本之一,尽管现在已经有更高版本可用,但在某些情况下,仍可能需要部署这个版本。 #### 二、安装部署流程 ##### 1. 安装Tomcat - **路径选择**:选择`D:\tomcat5`作为Tomcat的...
标题中的“tomcat下部署solr”意味着我们将讨论如何在Apache Tomcat服务器上安装和配置Apache Solr,这是一个流行的开源搜索引擎。Solr使得在大量数据中进行全文搜索、近似搜索、拼写检查以及多种其他高级功能变得...
1. **全量导入**:全量导入是将所有数据从源数据库或文件一次性导入到Solr索引的过程。这通常在系统初始化或者数据大幅度变动时进行。 2. **增量导入**:增量导入只导入自上次导入以来发生变化的数据。Solr通过跟踪...
在实际应用中,Solr整合可能还包括设置SolrCloud模式以实现分布式搜索,调整Solr的性能参数,优化查询性能,以及处理并发访问等复杂情况。Solr的灵活性和可扩展性使其成为企业级搜索解决方案的首选。通过不断学习和...
2. **配置文件**:根据实际情况调整Solr的配置文件,如schema.xml、solrconfig.xml等,这些文件对于Solr的功能实现至关重要。 #### 六、启动并测试 完成以上步骤后,即可启动Tomcat服务器,并通过浏览器访问Solr的...
而Solr,在分布式模式下支持的功能并不像ES那样完善,虽然也支持分布式搜索,但要实现类似ES的分布式功能需要更多的手动配置,并且并没有一种简单的方法可以轻松实现。例如,Solr的多核(multicore)功能就相对复杂...
4. **监控和报警**:建立监控系统,对定时任务的状态进行实时监控,并在异常情况下发送报警通知。 5. **备份和恢复**:定期备份索引,以防止数据丢失;同时,应具备快速恢复的能力,以应对系统故障。 综上所述,...
根据实际情况,可能需要调整索引策略、缓存大小、并发设置等,以优化性能。 总的来说,Linux环境下的Solr是一个强大的搜索引擎工具,通过合理的配置和使用,可以极大地提升数据的搜索和分析效率。无论是同步数据库...
Apache Solr是一款开源的企业级搜索平台,由Apache软件基金会维护。它是基于Java的,提供了高效、可扩展的全文检索、数据分析和分布式搜索功能。Solr-8.11.1是该软件的一个特定版本,包含了从早期版本到8.11.1的所有...
"solr性能调优.mht"文件专门针对Solr的性能优化,包括索引优化、硬件配置、查询策略调整等方面,对于追求高效稳定运行的Solr系统来说,这部分内容是必不可少的。 这些文档和资料覆盖了Solr的多个方面,包括入门、...
- 根据系统负载和性能需求,调整 Solr 的配置参数,例如增加索引段大小、调整缓存设置等。 以上就是 Solr 4.4.0 版本的主要知识点,以及如何在 Linux 环境下进行安装和部署到 Tomcat。通过熟练掌握这些步骤,你将...
综上所述,《Solr权威指南 下卷》一书不仅覆盖了Solr的基本原理和技术细节,还深入探讨了如何利用Solr解决实际问题。无论是对于初学者还是有经验的开发人员来说,都是不可多得的宝贵资源。通过对这些知识点的学习,...
- 默认情况下,Solr可能已经包含了几个示例核心。你可以通过管理界面创建新的核心,或者根据需求配置自己的核心。 - 编辑`solr/solr.xml`以配置Solr的数据存储位置、内存设置等。 7. **配置和索引数据**: - ...
Solr是Apache软件基金会的一个开源项目,是一款强大的全文搜索引擎服务器,它提供了分布式、可扩展、高可用性的搜索和分析服务。此压缩包“最新版windows solr-8.8.2.zip”包含了Windows环境下Solr的最新版本8.8.2的...
Solr,全称为Apache Solr,是Apache软件基金会的一个开源项目,主要用来处理全文搜索和企业级的搜索应用。它基于Java,利用Lucene库构建,提供了高效、可扩展的搜索和导航功能。Solr-9.0.0是该软件的最新版本,此...
Solr4.3是Apache Solr的一个早期版本,它是一个基于Lucene的全文搜索服务器,提供了高可配置、可扩展的搜索和分析功能。Solr4.3源代码的获取通常是为了深入理解其内部工作原理,进行定制开发或优化。在你提供的信息...