`

SolrCloud中的SolrCore报“exceeded limit of maxWarmingSearchers=2"问题怎么解决

    博客分类:
  • solr
 
阅读更多

 

 

 

请教个问题,我们是多线程往SolrCloud中的某个SolrCore导入数据,但是有时会出现“Error opening new searcher. exceeded limit of maxWarmingSearchers=2”这个错误,这个错误就会导致我们在SolrCloud上点击某个SolrCore的话,请求一直在等待,最后报页面无法打开,请问这个问题怎么解决呢?

 

 

 

文件更新和提交的速度太快,可以根据Solr所在服务器的CPU和内存,将solrconfig.xml中的maxWarmingSearchers参数调大一点!

 
在工作中,我用mapreduce代码将hbase数据写到solr单节点,以A索引库为例,如果数据量达到1KW级别以上,基本都会出现 exceeded limit of maxWarmingSearchers=2的问题,
 
处理方式:  进入A索引库 eg: hbase_f_zizp_info_index_tbs\conf\solrconfig.xml
修改 <maxWarmingSearchers>3</maxWarmingSearchers> 变大一点。不过看注释单节点下最好是2个,
我修改为3-4个跑数时也没出现过异常, 附件一点, 即使报上面的错,mapreduce job也会在reduce的时候
在报错后回退到报错前的百分比,然后重新尝试执行,基本尝试1-2次后能够正常执行完毕,
目前操作了21个接口,数据量从几十万条到几千万到上亿条,都没有出现数据丢失现象。
分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics