`

HBase-cache相关

 
阅读更多

 

 

一些配置参数

hbase.lru.blockcache.min.factor

hbase.lru.blockcache.acceptable.factor

hbase.regionserver.global.memstore.upperLimit  默认为0.4

hbase.regionserver.global.memstore.lowerLimit   默认为0.35

 

 

 

 

 

cacheFlusher线程

主要用于定期清理 memstore中的数据,具体逻辑如下:

//在单独线程中运行,定期检查是否有
//超过阈值的region,有则执行flush操作
MemStoreFlusher#run() {
	fqe = flushQueue.poll(threadWakeFrequency, TimeUnit.MILLISECONDS);
	if (fqe == null || fqe instanceof WakeupFlushThread) {
		if (isAboveLowWaterMark()) {
			flushOneForGlobalPressure();	
		}
		continue;	
	}	
	FlushRegionEntry fre = (FlushRegionEntry)fqe;
	flushRegion(fre);
}

//只有高于lowLmit阈值才进行后续操作
MemStoreFlusher#isAboveLowWaterMark() {
	return server.getRegionServerAccounting().
	 getGlobalMemstoreSize() >= globalMemStoreLimitLowMark;	
}

MemStoreFlusher#flushOneForGlobalPressure() {
	HRegion bestFlushableRegion = getBiggestMemstoreRegion(
          regionsBySize, excludedRegions, true);
	HRegion bestAnyRegion = getBiggestMemstoreRegion(
          regionsBySize, excludedRegions, false);
	if (bestFlushableRegion == null) {
		regionToFlush = bestAnyRegion;
	} else {
		regionToFlush = bestFlushableRegion;
	}
	flushRegion(regionToFlush, true);                    	
}

//刷新region,再根据需要执行compact或者split
MemStoreFlusher#flushRegion() {
	FlushRegionEntry fqe = this.regionsInQueue.remove(region);
	flushQueue.remove(fqe);
	boolean shouldCompact = HRegion.flushcache();
	// We just want to check the size
	boolean shouldSplit = HRegion.checkSplit() != null;
	if (shouldSplit) {
		HRegionServer.compactSplitThread.requestSplit(region);
	} else if (shouldCompact) {
		HRegionServer.compactSplitThread.requestCompaction(region, getName());
	}		
}

 

 

 

 

 

LruBlockCache

HBase上Regionserver的内存分为两个部分,一部分作为Memstore,主要用来写;另外一部分作为BlockCache,主要用于读。

写请求会先写入Memstore,Regionserver会给每个region提供一个Memstore,当Memstore满64MB以后,会启动 flush刷新到磁盘。当Memstore的总大小超过限制时(heapsize * hbase.regionserver.global.memstore.upperLimit * 0.9),会强行启动flush进程,从最大的Memstore开始flush直到低于限制。

读请求先到Memstore中查数据,查不到就到BlockCache中查,再查不到就会到磁盘上读,并把读的结果放入BlockCache。由于BlockCache采用的是LRU策略,因此BlockCache达到上限(heapsize * hfile.block.cache.size * 0.85)后,会启动淘汰机制,淘汰掉最老的一批数据。

一个Regionserver上有一个BlockCache和N个Memstore,它们的大小之和不能大于等于heapsize * 0.8,否则HBase不能正常启动。

默认配置下,BlockCache为0.2,而Memstore为0.4。在注重读响应时间的应用场景下,可以将 BlockCache设置大些,Memstore设置小些,以加大缓存的命中率。

 

HBase RegionServer包含三个级别的Block优先级队列:

Single:如果一个Block第一次被访问,则放在这一优先级队列中;

Multi:如果一个Block被多次访问,则从Single队列移到Multi队列中;

InMemory:如果一个Block是inMemory的,则放到这个队列中。

以上将Cache分级思想的好处在于:

首先,通过inMemory类型Cache,可以有选择地将in-memory的column families放到RegionServer内存中,例如Meta元数据信息;

通过区分Single和Multi类型Cache,可以防止由于Scan操作带来的Cache频繁颠簸,将最少使用的Block加入到淘汰算法中。

默认配置下,对于整个BlockCache的内存,又按照以下百分比分配给Single、Multi、InMemory使用:0.25、0.50和0.25。

注意,其中InMemory队列用于保存HBase Meta表元数据信息,因此如果将数据量很大的用户表设置为InMemory的话,可能会导致Meta表缓存失效,进而对整个集群的性能产生影响。

 

主要逻辑如下:

//用于cache block的类
LruBlockCache#构造函数() {
    map = new ConcurrentHashMap<BlockCacheKey,CachedBlock>(mapInitialSize,
        mapLoadFactor, mapConcurrencyLevel);
    this.minFactor = minFactor;
    this.acceptableFactor = acceptableFactor;
    this.singleFactor = singleFactor;
    this.multiFactor = multiFactor;
    this.memoryFactor = memoryFactor;
    this.stats = new CacheStats();
    this.count = new AtomicLong(0);
    this.elements = new AtomicLong(0);
    this.overhead = calculateOverhead(maxSize, blockSize, mapConcurrencyLevel);
    this.size = new AtomicLong(this.overhead);
    if(evictionThread) {
		this.evictionThread = new EvictionThread(this);
      	this.evictionThread.start(); // FindBugs SC_START_IN_CTOR
    } else {
      	this.evictionThread = null;
    }
    this.scheduleThreadPool.scheduleAtFixedRate(new StatisticsThread(this),
        statThreadPeriod, statThreadPeriod, TimeUnit.SECONDS);	
}

//这里假设不会对同一个已经被缓存的BlockCacheKey重复放入cache操作
//根据inMemory标志创建不同类别的CachedBlock对象:若inMemory为true则创建BlockPriority.MEMORY类型,
//否则创建BlockPriority.SINGLE;注意,这里只有这两种类型的Cache,因为BlockPriority.MULTI
//在Cache Block被重复访问时才进行创建
LruBlockCache#cacheBlock() {
	CachedBlock cb = map.get(cacheKey);
	if(cb != null) {
      	throw new RuntimeException("Cached an already cached block");
    }
    cb = new CachedBlock(cacheKey, buf, count.incrementAndGet(), inMemory);
    long newSize = updateSizeMetrics(cb, false);
    map.put(cacheKey, cb);
    elements.incrementAndGet();
    if(newSize > acceptableSize() && !evictionInProgress) {
      	runEviction();
    }
}

class CachedBlock() {
	static enum BlockPriority {
    	//如果一个Block第一次被访问,则放在这一优先级队列中
    	SINGLE,
  		//如果一个Block被多次访问,则从Single队列移到Multi队列中
    	MULTI,
    	//如果一个Block是inMemory的,则放到这个队列中
    	MEMORY
  	};	
  	
  	//多次访问后才设置MULTI类型
  	public void access(long accessTime) {
    	this.accessTime = accessTime;
    	if(this.priority == BlockPriority.SINGLE) {
      		this.priority = BlockPriority.MULTI;
    	}
  	}  	
}


//在单独的线程中运行
LruBlockCache#run() {
	this.wait();
	LruBlockCache cache = this.cache.get();
	if(cache == null) {
		break;
	}
	cache.evict();
}

//最核心的驱逐函数
LruBlockCache#evict() {
	//计算得到当前Block Cache总大小currentSize及需要被淘汰释放掉的
	//大小bytesToFree,如果bytesToFree小于等于0则不进行后续操作
	long currentSize = this.size.get();
	long bytesToFree = currentSize - minSize();
	if(bytesToFree <= 0) {
		return;
	}
	
	//初始化创建三个BlockBucket队列,分别用于存放Single、Multi和InMemory类Block Cache
	//其中每个BlockBucket维护了一个CachedBlockQueue,按
	//LRU淘汰算法维护该BlockBucket中的所有CachedBlock对象
	BlockBucket bucketSingle = new BlockBucket(bytesToFree, blockSize,
          singleSize());
	BlockBucket bucketMulti = new BlockBucket(bytesToFree, blockSize,
          multiSize());
	BlockBucket bucketMemory = new BlockBucket(bytesToFree, blockSize,
          memorySize());

	//遍历记录所有Block Cache的全局ConcurrentHashMap,加入到相应的BlockBucket队列中
	for(CachedBlock cachedBlock : map.values()) {
		switch(cachedBlock.getPriority()) {
          case SINGLE: {
            bucketSingle.add(cachedBlock);
            break;
          }
          case MULTI: {
            bucketMulti.add(cachedBlock);
            break;
          }
          case MEMORY: {
            bucketMemory.add(cachedBlock);
            break;
          }
		}
	}//end for
	
	//将以上三个BlockBucket队列加入到一个优先级队列中,按照各个BlockBucket
	//超出bucketSize的大小顺序排序(BlockBucket的compareTo函数)
	PriorityQueue<BlockBucket> bucketQueue =
        new PriorityQueue<BlockBucket>(3);
	bucketQueue.add(bucketSingle);
	bucketQueue.add(bucketMulti);
	bucketQueue.add(bucketMemory);
	int remainingBuckets = 3;
	long bytesFreed = 0;
	BlockBucket bucket;
	
	//遍历优先级队列,对于每个BlockBucket,通过Math.min(overflow, (bytesToFree - bytesFreed) / remainingBuckets)
	//计算出需要释放的空间大小这样做可以保证尽可能平均地从三个BlockBucket中释放指定的空间
	while((bucket = bucketQueue.poll()) != null) {
		long overflow = bucket.overflow();
        if(overflow > 0) {
			long bucketBytesToFree = Math.min(overflow,
            (bytesToFree - bytesFreed) / remainingBuckets);
          	//释放空间
          	bytesFreed += bucket.free(bucketBytesToFree);
        }
        remainingBuckets--;
	}	
}

//从其CachedBlockQueue中取出即将被淘汰掉的CachedBlock对象
LruBlockCache#free() {
	CachedBlock cb;
	long freedBytes = 0;
	while ((cb = queue.pollLast()) != null) {
		freedBytes += evictBlock(cb);
        if (freedBytes >= toFree) {
          	return freedBytes;
        }
	}	
}

//从map中移除数据并更新metrics信息
LruBlockCache#evictBlock() {
	map.remove(block.getCacheKey());
    updateSizeMetrics(block, true);
    elements.decrementAndGet();
    stats.evicted();
    return block.heapSize();	
}

 

 

 

 

 

类图

block cache相关类图如下


 

 

 

 

 

参考

HBase上关于CMS、GC碎片、大缓存的一种解决方案:Bucket Cache 

HBase的Block Cache实现机制分析

memstore的flush流程分析

hbase定时memflush PeriodicMemstoreFlusher

MemStoreChunkPool&MSLAB提升HBASE GC性能

 

  • 大小: 57.4 KB
分享到:
评论

相关推荐

    hbase的hbase-1.2.0-cdh5.14.2.tar.gz资源包

    5. **BlockCache**:配置BlockCache大小,缓存最近访问的数据,提高读取速度。 ### 总结 HBase是大数据处理领域的重要工具,尤其适合实时查询和大规模数据存储。理解并掌握HBase的核心概念、安装配置、数据模型...

    hbase-2.2.5-bin.tar.gz

    HBase,全称为Apache HBase,是一个开源的分布式列式数据库,属于NoSQL数据库的一种,主要设计用于处理大规模数据集。HBase构建于Hadoop文件系统(HDFS)之上,提供高可靠性、高性能、可伸缩的数据存储。它能够支持...

    hbase-1.3.1-bin.zip

    - 可通过调整配置参数优化性能,如Region大小、BlockCache设置等。 在解压“hbase-1.3.1-bin.zip”后,你可以找到启动和配置HBase所需的所有文件,包括bin目录下的可执行脚本、conf目录中的配置文件、lib目录中的...

    hbase-1.6.0-bin.tar.gz

    例如,它改进了BlockCache的管理,提高了缓存效率;增强了MemStore的压缩算法,降低了存储成本;同时,还优化了Region分裂过程,减少了对系统的影响。 2. **多版本支持**:HBase允许用户保留多个版本的数据,便于...

    hbase-1.2.0-cdh5.14.0.tar.gz

    此外,还可以利用BlockCache和MemStore来提高读取性能。 12. **监控和管理** CDH提供了一套全面的管理和监控工具,如Cloudera Manager,用于监控HBase集群的健康状况、性能指标和资源使用情况。 13. **安全性** ...

    hbase-1.0.1.1-bin.tar.gz

    - **列族式存储**:HBase不同于传统的关系型数据库,它按照列族存储数据,每个列族包含一系列相关的列,这使得存储和查询大数据更为高效。 - **分布式架构**:HBase利用Hadoop的HDFS作为底层存储,将数据分布在多...

    hbase-2.0.0.3.0.0.0-1634-bin.tar.gz

    3. 性能调优:通过调整HBase的配置参数,如MemStore大小、BlockCache设置等,可以优化读写性能。 4. 监控与故障排查:Ambari提供了丰富的监控工具,包括HBase的CPU使用、磁盘I/O、网络流量等关键指标,帮助你及时...

    hbase-0.94.7-security.tar.gz

    针对性能优化,用户可能需要关注 Region的大小、Split Policy的设定、BlockCache的使用以及Compaction策略等。同时,合理的RowKey设计对于查询性能至关重要。 总结来说,`hbase-0.94.7-security.tar.gz`提供了一个...

    hbase资料_hbase-default.xml.zip

    5. **文件系统和缓存设置**:`fs.defaultFS`设定默认的HDFS文件系统,`hbase.hregion.blockmultiplier`控制BlockCache的大小,`hbase.hregion.memstore.block.multiplier`则用于控制MemStore的大小。 6. **客户端...

    hbase-0.94.5-security.tar.gz

    9. **查询优化**:虽然HBase主要面向随机读写,但通过预读(BlockCache)和Bloom Filter等机制,可以优化查询性能,减少磁盘I/O。 10. **监控与管理**:HBase提供了一套监控和管理工具,包括JMX、Web UI和命令行...

    hbase-1.4.5-bin.tar.gz

    用户可以通过调整Region大小、配置BlockCache和MemStore大小、使用Compaction和Split策略等方式优化HBase性能。此外,通过增加RegionServer数量可以水平扩展集群,以应对更大规模的数据和负载。 在部署和使用HBase...

    hbase-1.2.6-bin+src.tar.rar

    根据业务需求调整HBase配置,如Region大小、Compaction策略、BlockCache设置等,提升系统性能。 五、学习资源 参考链接:[博客教程](https://blog.csdn.net/haobindayi/article/details/82948123),该博客提供了...

    hbase-2.2.6-bin.tar.zip

    具体来说,`hbase-2.2.6-bin.tar.gz`是一个经过打包的HBase源代码和相关文件,解压后会得到一个完整的HBase运行环境。 HBase的核心特性包括: 1. **列族存储**:与传统的关系型数据库不同,HBase将数据按照列族...

    HBase源代码 hbase-0.98.23

    例如,`org.apache.hadoop.hbase.regionserver.HStore`类实现了MemStore和BlockCache,它们分别缓存内存中的新写入数据和硬盘上的热数据,提高读写效率。同时,HBase还支持Compaction操作,通过`org.apache.hadoop....

    hbase-1.2.6

    在实际部署中,可能还需要考虑HBase的调优,比如Region大小设置、MemStore配置、Compaction策略、BlockCache调整等,以优化性能。同时,监控系统资源、日志和告警也是运维中的重要环节。 总之,HBase-1.2.6是一个...

    2-2+HBase-RowKey+与索引设计.zip

    - **BlockCache**:合理配置缓存大小,提高数据读取速度。 - **Compaction**:定期合并HFile以减少文件数量,提高读取效率。 **6. 实战应用** 了解了RowKey设计和索引策略后,我们可以结合实际业务需求,如实时...

    hbase1.0.3_part1

    在“hbase1.0.3_part1”这个压缩包中,我们可以预见到它包含了HBase 1.0.3版本的相关文件。这个版本发布于2015年,虽然现在已经有了更新的版本,但在当时,1.0.3是一个重要的里程碑,引入了许多优化和改进,以提高...

    hbase bucket cache

    ### HBase Bucket Cache:一种高效的缓存管理方案 #### 概述 HBase Bucket Cache 是一个针对 HBase 的块缓存实现,旨在解决 CMS(Concurrent Mark Sweep)垃圾收集器和堆内存碎片带来的性能问题,并提供更大的缓存...

    hbase-demo:一些代码hbase

    5. **性能优化**:学习如何调整 HBase 的配置参数,如 Region 大小、BlockCache 设置等,以提高性能。 6. **错误处理与异常**:了解在操作 HBase 时可能出现的常见错误和异常,以及如何进行适当处理。 通过研究 `...

    hbase 1.2.0源码

    3. Column Family:列族是表内的逻辑数据组织,每个列族包含一组相关的列(Column),列族在表定义时确定,列可以在运行时动态添加。 4. KeyValue:HBase中的数据存储在KeyValue对象中,每个KeyValue包含行键、列族...

Global site tag (gtag.js) - Google Analytics