问题
lucene使用排序时会将被排序字段全部加入内存再进行排序,当多次使用不同字段进行排序时会造成OOM问题
解决方案
修改lucene源码在每次查询完成后将排序所使用的FieldCache里的缓存清空
分别需要修改两个工程
- lucene2.4
- solr1.3
Lucene2.4中要修改的类或接口有
- org.apache.lucene.index.IndexReader
添加成员变量
public String m_cacheKey = "cmhk_oom_bugfix";
- org.apache.lucene.search.Searcher
添加抽象方法
abstract public
void
release();
在它的实现类中除org.apache.lucene.search.IndexSearcher外的都加上一个这个抽象方法的空实现
- org.apache.lucene.search.IndexSearcher
添加方法
public void
release() {
// 清除缓存数据
if (null !=
reader.m_cacheKey && !"".equals(reader.m_cacheKey))
{
if (null != FieldSortedHitQueue.Comparators)
{
FieldSortedHitQueue.Comparators.ReleaseCache(reader.m_cacheKey);
}
FieldCache.DEFAULT.ReleaseFieldCache(reader.m_cacheKey);
ExtendedFieldCache.EXT_DEFAULT.ReleaseExtendedFieldCache(reader.m_cacheKey);
// 立即回收垃圾
//
System.gc();
}
}
- org.apache.lucene.search.FieldCache
添加方法
void ReleaseFieldCache(String
strCacheKey);
- org.apache.lucene.search.FieldCacheImpl
添加方法
public void
ReleaseFieldCache(String strCacheKey)
{
bytesCache.ReleaseCache(strCacheKey);
shortsCache.ReleaseCache(strCacheKey);
intsCache.ReleaseCache(strCacheKey);
floatsCache.ReleaseCache(strCacheKey);
stringsCache.ReleaseCache(strCacheKey);
stringsIndexCache.ReleaseCache(strCacheKey);
autoCache.ReleaseCache(strCacheKey);
customCache.ReleaseCache(strCacheKey);
}
-
org.apache.lucene.search.FieldCacheImpl.Cache
添加方法
// 用于清除缓存
public
void ReleaseCache(String strCacheKey)
{
if (null != readerCache) {
synchronized (readerCache) {
if (null !=
readerCache.get(strCacheKey)) {
((Map)
readerCache.get(strCacheKey)).clear();
}
}
}
}
修改org.apache.lucene.search.FieldCacheImpl.Cache.get(IndexReader,
Object)方法
public Object get(IndexReader reader, Object key)
throws IOException {
Map
innerCache;
Object value;
synchronized (readerCache) {
//改键值为静态值
innerCache = (Map)readerCache.get(reader.m_cacheKey);
// innerCache = (Map)
readerCache.get(reader);
if
(innerCache == null) {
innerCache = new
HashMap();
//改键值为静态值
readerCache.put(reader.m_cacheKey,innerCache);
//readerCache.put(reader, innerCache);
value
= null;
} else {
value = innerCache.get(key);
}
if (value == null)
{
value = new
CreationPlaceholder();
innerCache.put(key,
value);
}
}
if
(value instanceof CreationPlaceholder)
{
synchronized (value)
{
CreationPlaceholder progress =
(CreationPlaceholder) value;
if
(progress.value == null)
{
progress.value = createValue(reader,
key);
synchronized
(readerCache) {
innerCache.put(key,
progress.value);
}
}
return
progress.value;
}
}
return
value;
}
}
- org.apache.lucene.search.ExtendedFieldCache
添加方法
//用于清除缓存
void
ReleaseExtendedFieldCache(String
strCacheKey);
- org.apache.lucene.search.ExtendedFieldCacheImpl
添加方法
// 用于清除缓存
public
void ReleaseExtendedFieldCache(String
strCacheKey)
{
longsCache.ReleaseCache(strCacheKey);
doublesCache.ReleaseCache(strCacheKey);
autoCache.ReleaseCache(strCacheKey);
}
solr1.3中要修改的类或接口
添加方法
public void
release(){
searcher.release();
}
修改私有方法
private RefCounted<SolrIndexSearcher>
newHolder(SolrIndexSearcher newSearcher) {
RefCounted<SolrIndexSearcher> holder
= new
RefCounted<SolrIndexSearcher>(newSearcher) {
public void
close() {
try {
synchronized(searcherLock) {
// it's possible for someone to get a reference via the _searchers
queue
// and increment the refcount
while RefCounted.close() is being called.
// we check the refcount again to see if this has happened and
abort the close.
// This relies on the
RefCounted class allowing close() to be called every
// time the counter hits
zero.
resource.release();//释放FieldCache中的内存
if (refcount.get() >
0) return;
_searchers.remove(this);
}
resource.close();
}
catch (IOException e)
{
log.severe("Error closing searcher:"
+
SolrException.toStr(e));
}
}
};
holder.incref();
// set ref count to 1 to account for
this._searcher
return
holder;
}
修改方法org.apache.solr.util.RefCounted.decref()
public void
decref() {
// if (refcount.decrementAndGet() == 0)
{
close();
//
}
}
分享到:
相关推荐
solr乱码解决方法,excel文件,贴图说明。
#### 一、Solr服务器配置问题与解决方法 **问题描述:** 当使用JavaBean向Solr服务器提交数据时,如果Solr服务器上的配置字段(Field)与JavaBean中的字段不匹配,则Solr服务器无法识别这些字段,从而拒绝接收数据...
【Solr学习总结配置方法】 Solr是一款基于Apache Lucene的全文检索服务器,它提供了分布式、可扩展且高度可用的搜索和分析能力。Solr的主要特点是简化了索引创建和查询服务,使得开发者只需编写少量代码即可实现...
总之,解决Solr启动404问题需要检查多个方面,包括但不限于Java环境、`solrhome`配置、核心配置文件、端口设置以及可能的容器化部署问题。仔细排查并按照上述步骤操作,通常都能找出问题所在并修复。如果问题持续...
在配置过程中,你可能需要修改Tomcat的web.xml文件,以指定Solrhome的路径,并解除对TRACE方法的禁用,以避免不必要的错误消息。同时,确保log4j.properties文件被正确放置在Tomcat的WEB-INF/classes目录下,以便...
基于solr-geo空间搜索 1、Solr的schema.xml配置 定义坐标field 2、Solr的data-config.xml配置 建立索引 3、java查询语法 坐标距离、分页、排序
1. **SolrCloud模式**:从版本8开始,Solr支持SolrCloud模式,这是一个分布式搜索和索引存储解决方案。它允许Solr集群进行自动故障转移和数据恢复,确保高可用性和容错性。 2. **集合与分片**:在SolrCloud中,数据...
4. **docs** 文件夹:包含了Solr的用户文档,可以帮助开发者和管理员了解Solr的使用方法和API。 5. **example** 文件夹:提供了一个简单的Solr实例,包括了如何设置和运行的基本示例,对于初学者来说非常有用。 6....
Solr,全称为Apache Solr,是一款开源的全文搜索引擎,广泛应用于电商、新闻、文档检索等领域。它提供了高效、可扩展的搜索与分析能力。在电商领域,搜索结果的排序和打分对于用户体验至关重要,因为它直接影响到...
5. 自定义排序和评分:用户可以自定义文档排序规则和评分算法,以满足特定的业务需求。 6. 多语言支持:Solr内置了多种语言分析器,支持不同语言的全文搜索。 7. 高亮显示:Solr可以高亮显示搜索结果中的关键词,...
Solr 是一个基于 Lucene 的开源搜索引擎,提供了一个分布式、可扩展、易用的搜索和分析平台。在本文档中,我们将详细介绍如何部署和使用 Solr 5.5.4 版本,包括两种常见的部署方式:Jetty 和 Tomcat,并涉及到中文...
Apache Solr 是一个开源的全文搜索引擎,由Apache软件基金会维护,是Lucene项目的一部分。它提供了高效、可扩展的搜索和导航功能...熟悉这些知识点,可以帮助你更好地利用Apache Solr构建高性能的企业级搜索解决方案。
Solr,全名Apache Solr,是Apache软件基金会的一个开源项目,主要用来处理全文检索、分布式搜索和实时分析。在大型网站和企业级应用中,Solr常常被用来提升搜索性能和效率。本文将深入探讨如何在Solr中更换默认的...
Solr,全称为Apache Solr,是一款开源的全文搜索引擎,被广泛应用于企业级搜索解决方案中。它基于Lucene库,提供了高效、可扩展的搜索和分析能力。在处理多表join查询时,传统的关系型数据库如MySQL等通常能很好地...
### Solr 4.7 服务搭建详细指南 #### 一、环境准备 为了搭建 Solr 4.7 服务,我们需要确保以下环境已经准备好: 1. **Java Development Kit (JDK) 1.7**:Solr 需要 Java 运行环境支持,这里我们选择 JDK 1.7 ...
用户可以通过POST方法向Solr发送文档,Solr会自动将其索引。 4. **Faceting(分面搜索)**:Solr提供了强大的分面搜索功能,允许用户根据特定的属性进行过滤和统计,帮助用户快速浏览和理解大量数据。 5. **...
总的来说,Solr 是一个功能丰富的全文搜索引擎,能够有效地解决大规模数据的搜索和检索问题,为企业提供高效、可定制的搜索解决方案。通过合理的配置和扩展,Solr 能够适应各种复杂的应用场景,成为企业信息系统中的...
Solr是Apache软件基金会的一个开源项目,它是基于Java的全文搜索服务器,主要功能包括文档索引、搜索、排序和分布式处理。Solr利用了Lucene库的强大搜索功能,并且提供了更高级别的API和服务,使得企业级搜索应用的...
通过深入研究`solr-9.0.0-src.tgz`源码,开发者可以理解Solr的工作原理,定制自己的搜索解决方案,解决特定场景下的性能挑战,并为社区贡献新的功能和优化。同时,这也为学习和研究信息检索、全文搜索、分布式计算等...
Solr 是一个开源的企业级搜索平台,由Apache软件基金会维护,是Lucene项目的一部分。它提供了全文检索、命中高亮、拼写检查、缓存、近...了解并熟练掌握其核心概念和使用方法,将有助于构建高效、可靠的搜索解决方案。