`
nanjingjiangbiao_T
  • 浏览: 2628721 次
  • 来自: 深圳
文章分类
社区版块
存档分类
最新评论

HBase Block Cache实现机制分析

 
阅读更多

本文结合HBase 0.94.1版本源码,对HBase的Block Cache实现机制进行分析,总结学习其Cache设计的核心思想。

1. 概述

HBase上Regionserver的内存分为两个部分,一部分作为Memstore,主要用来写;另外一部分作为BlockCache,主要用于读。

  • 写请求会先写入Memstore,Regionserver会给每个region提供一个Memstore,当Memstore满64MB以后,会启动 flush刷新到磁盘。当Memstore的总大小超过限制时(heapsize * hbase.regionserver.global.memstore.upperLimit * 0.9),会强行启动flush进程,从最大的Memstore开始flush直到低于限制。
  • 读请求先到Memstore中查数据,查不到就到BlockCache中查,再查不到就会到磁盘上读,并把读的结果放入BlockCache。由于BlockCache采用的是LRU策略,因此BlockCache达到上限(heapsize * hfile.block.cache.size * 0.85)后,会启动淘汰机制,淘汰掉最老的一批数据。

一个Regionserver上有一个BlockCache和N个Memstore,它们的大小之和不能大于等于heapsize * 0.8,否则HBase不能正常启动。

默认配置下,BlockCache为0.2,而Memstore为0.4。在注重读响应时间的应用场景下,可以将 BlockCache设置大些,Memstore设置小些,以加大缓存的命中率。

HBase RegionServer包含三个级别的Block优先级队列:

  • Single:如果一个Block第一次被访问,则放在这一优先级队列中;
  • Multi:如果一个Block被多次访问,则从Single队列移到Multi队列中;
  • InMemory:如果一个Block是inMemory的,则放到这个队列中。

以上将Cache分级思想的好处在于:

  • 首先,通过inMemory类型Cache,可以有选择地将in-memory的column families放到RegionServer内存中,例如Meta元数据信息;
  • 通过区分Single和Multi类型Cache,可以防止由于Scan操作带来的Cache频繁颠簸,将最少使用的Block加入到淘汰算法中。

默认配置下,对于整个BlockCache的内存,又按照以下百分比分配给Single、Multi、InMemory使用:0.25、0.50和0.25。

注意,其中InMemory队列用于保存HBase Meta表元数据信息,因此如果将数据量很大的用户表设置为InMemory的话,可能会导致Meta表缓存失效,进而对整个集群的性能产生影响。

2. 源码分析

下面是对HBase 0.94.1中相关源码(org.apache.hadoop.hbase.io.hfile.LruBlockCache)的分析过程。

2.1加入Block Cache

/** Concurrent map (the cache) */

private final ConcurrentHashMap<BlockCacheKey,CachedBlock> map;

/**

* Cache the block with the specified name and buffer.

* <p>

* It is assumed this will NEVER be called on an already cached block. If

* that is done, an exception will be thrown.

*@param cacheKey block’s cache key

*@param buf block buffer

*@param inMemory if block is in-memory

*/

public void cacheBlock(BlockCacheKey cacheKey, Cacheable buf,boolean inMemory) {

CachedBlock cb = map.get(cacheKey);

if (cb !=null ) {

throw new RuntimeException(“Cached an already cached block”);

}

cb =new CachedBlock(cacheKey, buf, count.incrementAndGet(), inMemory);

long newSize = updateSizeMetrics(cb,false );

map.put(cacheKey, cb);

elements.incrementAndGet();

if (newSize > acceptableSize() && !evictionInProgress) {

runEviction();

}

}

/**

* Cache the block with the specified name and buffer.

* <p>

* It is assumed this will NEVER be called on an already cached block. If

* that is done, it is assumed that you are reinserting the same exact

* block due to a race condition and will update the buffer but not modify

* the size of the cache.

*@param cacheKey block’s cache key

*@param buf block buffer

*/

public void cacheBlock(BlockCacheKey cacheKey, Cacheable buf) {

cacheBlock(cacheKey, buf,false );

}

1) 这里假设不会对同一个已经被缓存的BlockCacheKey重复放入cache操作;

2) 根据inMemory标志创建不同类别的CachedBlock对象:若inMemory为true则创建BlockPriority.MEMORY类型,否则创建BlockPriority.SINGLE;注意,这里只有这两种类型的Cache,因为BlockPriority.MULTI在Cache Block被重复访问时才进行创建,见CachedBlock的access方法代码:

/**

* Block has been accessed. Update its local access time.

*/

public void access(long accessTime) {

this .accessTime = accessTime;

if (this .priority == BlockPriority.SINGLE) {

this .priority = BlockPriority.MULTI;

}

}

3) 将BlockCacheKey和创建的CachedBlock对象加入到全局的ConcurrentHashMap map中,同时做一些更新计数操作;

4) 最后判断如果加入后的Block Size大于设定的临界值且当前没有淘汰线程运行,则调用runEviction()方法启动LRU淘汰过程:

/** Eviction thread */

private final EvictionThread evictionThread;

/**

* Multi-threaded call to run the eviction process.

*/

private void runEviction() {

if (evictionThread ==null ) {

evict();

}else {

evictionThread.evict();

}

}

其中,EvictionThread线程即是LRU淘汰的具体实现线程。下面将给出详细分析。

2.2淘汰Block Cache

EvictionThread线程主要用于与主线程的同步,从而完成Block Cache的LRU淘汰过程。

/*

* Eviction thread. Sits in waiting state until an eviction is triggered

* when the cache size grows above the acceptable level.<p>

*

* Thread is triggered into action by {@link LruBlockCache#runEviction()}

*/

private static class EvictionThreadextends HasThread {

private WeakReference<LruBlockCache> cache;

private boolean go =true ;

public EvictionThread(LruBlockCache cache) {

super (Thread.currentThread().getName() + “.LruBlockCache.EvictionThread”);

setDaemon(true );

this .cache =new WeakReference<LruBlockCache>(cache);

}

@Override

public void run() {

while (this .go) {

synchronized (this ) {

try {

this .wait();

}catch (InterruptedException e) {}

}

LruBlockCache cache =this .cache.get();

if (cache ==null )break ;

cache.evict();

}

}

public void evict() {

synchronized (this ) {

this .notify(); // FindBugs NN_NAKED_NOTIFY

}

}

void shutdown() {

this .go =false ;

interrupt();

}

}

EvictionThread线程启动后,调用wait被阻塞住,直到EvictionThread线程的evict方法被主线程调用时执行notify(见上面的代码分析过程,通过主线程的runEviction方法触发调用),开始执行LruBlockCache的evict方法进行真正的淘汰过程,代码如下:

/**

* Eviction method.

*/

void evict() {

// Ensure only one eviction at a time

if (!evictionLock.tryLock())return ;

try {

evictionInProgress =true ;

long currentSize =this .size.get();

long bytesToFree = currentSize – minSize();

if (LOG.isDebugEnabled()) {

LOG.debug(“Block cache LRU eviction started; Attempting to free ” +

StringUtils.byteDesc(bytesToFree) + ” of total=” +

StringUtils.byteDesc(currentSize));

}

if (bytesToFree <= 0)return ;

// Instantiate priority buckets

BlockBucket bucketSingle =new BlockBucket(bytesToFree, blockSize,

singleSize());

BlockBucket bucketMulti =new BlockBucket(bytesToFree, blockSize,

multiSize());

BlockBucket bucketMemory =new BlockBucket(bytesToFree, blockSize,

memorySize());

// Scan entire map putting into appropriate buckets

for (CachedBlock cachedBlock : map.values()) {

switch (cachedBlock.getPriority()) {

case SINGLE: {

bucketSingle.add(cachedBlock);

break ;

}

case MULTI: {

bucketMulti.add(cachedBlock);

break ;

}

case MEMORY: {

bucketMemory.add(cachedBlock);

break ;

}

}

}

PriorityQueue<BlockBucket> bucketQueue =

new PriorityQueue<BlockBucket>(3);

bucketQueue.add(bucketSingle);

bucketQueue.add(bucketMulti);

bucketQueue.add(bucketMemory);

int remainingBuckets = 3;

long bytesFreed = 0;

BlockBucket bucket;

while ((bucket = bucketQueue.poll()) !=null ) {

long overflow = bucket.overflow();

if (overflow > 0) {

long bucketBytesToFree = Math.min(overflow,

(bytesToFree – bytesFreed) / remainingBuckets);

bytesFreed += bucket.free(bucketBytesToFree);

}

remainingBuckets–;

}

if (LOG.isDebugEnabled()) {

long single = bucketSingle.totalSize();

long multi = bucketMulti.totalSize();

long memory = bucketMemory.totalSize();

LOG.debug(“Block cache LRU eviction completed; ” +

“freed=” + StringUtils.byteDesc(bytesFreed) + “, ” +

“total=” + StringUtils.byteDesc(this .size.get()) + “, ” +

“single=” + StringUtils.byteDesc(single) + “, ” +

“multi=” + StringUtils.byteDesc(multi) + “, ” +

“memory=” + StringUtils.byteDesc(memory));

}

}finally {

stats.evict();

evictionInProgress =false ;

evictionLock.unlock();

}

}

1)首先获取锁,保证同一时刻只有一个淘汰线程运行;

2)计算得到当前Block Cache总大小currentSize及需要被淘汰释放掉的大小bytesToFree,如果bytesToFree小于等于0则不进行后续操作;

3) 初始化创建三个BlockBucket队列,分别用于存放Single、Multi和InMemory类Block Cache,其中每个BlockBucket维护了一个CachedBlockQueue,按LRU淘汰算法维护该BlockBucket中的所有CachedBlock对象;

4) 遍历记录所有Block Cache的全局ConcurrentHashMap,加入到相应的BlockBucket队列中;

5) 将以上三个BlockBucket队列加入到一个优先级队列中,按照各个BlockBucket超出bucketSize的大小顺序排序(见BlockBucket的compareTo方法);

6) 遍历优先级队列,对于每个BlockBucket,通过Math.min(overflow, (bytesToFree – bytesFreed) / remainingBuckets)计算出需要释放的空间大小,这样做可以保证尽可能平均地从三个BlockBucket中释放指定的空间;具体实现过程详见BlockBucket的free方法,从其CachedBlockQueue中取出即将被淘汰掉的CachedBlock对象:

public long free(long toFree) {

CachedBlock cb;

long freedBytes = 0;

while ((cb = queue.pollLast()) !=null ) {

freedBytes += evictBlock(cb);

if (freedBytes >= toFree) {

return freedBytes;

}

}

return freedBytes;

}

7) 进一步调用了LruBlockCache的evictBlock方法,从全局ConcurrentHashMap中移除该CachedBlock对象,同时更新相关计数:

protected long evictBlock(CachedBlock block) {

map.remove(block.getCacheKey());

updateSizeMetrics(block,true );

elements.decrementAndGet();

stats.evicted();

return block.heapSize();

}

8) 释放锁,完成善后工作。

3. 总结

以上关于Block Cache的实现机制,核心思想是将Cache分级,这样的好处是避免Cache之间相互影响,尤其是对HBase来说像Meta表这样的Cache应该保证高优先级。

原文链接: http://blog.linezing.com/2012/11/hbase-block-cache-mechanism

分享到:
评论

相关推荐

    HBase的性能优化

    HBase的Block Cache是 RegionServer 中的一块缓存区域,用于存储频繁访问的数据块。增大Block Cache的大小可以提高读取性能。默认情况下,HBase的Block Cache大小为0.0,可以根据实际情况调整这个值。例如,将Block ...

    Hbase运维手册范本.doc

    BlockCache 是 HBase 中的一种缓存机制,用于存储经常访问的数据。通过调整 BlockCache 的大小,可以提高 HBase 的读取性能。 3. 读写请求数 读写请求数是一个重要的性能指标,通过观察读写请求数,可以了解每台 ...

    Hbase运维手册.pdf

    此外,HBase的内存管理还包括了BlockCache与Memstore的大小比例配置,一般默认BlockCache为20%,Memstore为40%。在读密集型应用中,可以增大BlockCache,减小Memstore,以优化读取性能。BlockCache的三个优先级队列...

    hbase的Rowkey设计方案.pdf

    HBase中设计有MemStore和BlockCache,分别对应列族/Store级别的写⼊缓存,和RegionServer级别的读取缓存。如果RowKey过 长,缓存中存储数据的密度就会降低,影响数据落地或查询效率。 1.2 hbase的设计原则以及解决...

    HBase最佳实践-读性能优化策略-3——HBase服务器端优化.pdf

    - 观察与确认:分析缓存未命中率和配置,同时关注GC日志,评估BlockCache配置的有效性。 - 优化建议:若内存小于20GB,选择LRUBlockCache;否则,考虑使用BucketCache的offheap模式,以减少GC影响。HBase 2.0的...

    HBase配置项说明及调优建议.xlsx

    hbase 常用参数含义,默认值,调优建议(必须参数,split,compaction,blockcache,memstore flush,hlog,zookeeper,其他,等相参数名称、含义、默认值、调优建议)

    Hbase性能优化百科全书(csdn)————程序.pdf

    BlockCache用于缓存数据块,合理设置可以显著提高读取速度,但也要注意不要过度占用内存,以免影响其他服务。 读写性能优化方面,可以通过批处理、预读取、优化Scan操作等方式提升。例如,使用Put批量写入数据比单...

    hbase优化总结

    * hfile.block.cache.size:storefile 的读缓存占用内存的大小百分比,默认值为 0.2,可以根据实际情况调整,以提高数据读的性能。 HBase 的优化需要从多方面考虑,包括 Linux 系统、JVM 配置、HBase 配置等方面。...

    2-3+HBase+应用与高可用实践.pdf

    【描述】:这份文档探讨了HBase在实际应用中的使用情况以及如何实现高可用性,特别关注了平安科技在HBase上的实践。 【标签】:HBase, 高可用性, 数据存储, 性能优化, 数据迁移 【正文】: HBase作为一种分布式列...

    Apache HBase技术参考手册

    每个Region包含一个或多个列族,数据在磁盘上以文件形式存储,通过BlockCache优化读取性能。 **面向列和面向行** HBase既支持列式存储,方便对某一列族内的数据进行快速访问,也支持行级操作,可以在一行内进行多列...

    大数据HBase二次开发.pdf

    例如,使用HBase Shell创建表时,可以指定表名、列族,还可以设置版本数(VERSIONS)、生存时间(TTL)、是否启用BlockCache,甚至预先分割Region以优化表的分布。插入数据时,PUT命令需要指定表名、行键(RowKey)...

    HBase数据读取流程解析-3——scan查询.pdf

    HBase的存储引擎基于LSM-Like树,这使得一次范围查询可能涉及到多个Region(分片)、BlockCache(内存缓存)以及多个HFile(数据存储文件)。在读取过程中,HBase不仅要处理多版本的数据,还要处理已标记为删除但未...

    分布式数据库HBase安装配置与实践.pdf

    随着数据量的增长,可能需要对HBase进行性能优化,如调整Region大小、设置合理的RowKey、利用BlockCache等。这需要根据具体应用场景来设定。 9. 监控与故障排查 了解如何监控HBase的性能和状态至关重要,可以使用...

    HBase应用最佳实践详解.pptx

    此外,监控和调整HBase的各项参数也是关键,如major_compaction执行周期、handler.count和block.cache.size等。 通过上述最佳实践,读者不仅能掌握HBase的基本操作,还能理解如何根据实际需求进行定制化优化,从而...

    Hadoop(四)C#操作Hbase.doc

    2. BlockCache:读缓存,缓存最常访问的数据。 3. MemStore:写缓存,定期将数据flush到磁盘形成HFile。 4. HFile:在HDFS上存储的有序key-value数据。 【HBase的存储机制】 表由行组成,行由列族构成,列族由列...

    Hbase优化-参数优化

    - **BlockCache**:调整BlockCache大小,优化热点数据的缓存命中率。 - **Scan优化**:限制scan返回的结果数量,避免一次性加载大量数据;设置合理的filter以减少不必要的数据扫描。 4. **数据计算** - **...

    HBase数据读取流程解析-2——构建scanner体系.pdf

    这个过程包括在BlockCache中查找索引树,确定RowKey所在的BlockOffset和BlockSize,加载Block并进行进一步的扫描操作。 在Seekrowkey之后,数据读取进入实际的Block读取和解码阶段。Block读取可能利用BlockCache...

    中国HBase技术社区第4届-MeetUp-上海站_携程HBase实践.pptx

    - 监控指标涵盖连接数、响应时间、处理时间、读写请求数、请求大小、运行线程数、flush和compaction队列长度、Blockcache命中率、Hlog文件大小和数量、Storefile数量和大小等。 - 通过模拟用户行为检测异常,比如...

    1-8+携程+HBase+实践.pdf

    监控指标包括但不限于连接数、响应时间、处理时间、读写请求数、请求大小、运行线程数、flush和compaction队列长度、Blockcache命中率、Hlog大小和数量、Storefile数量和大小等。此外,还通过模拟用户操作来检测异常...

Global site tag (gtag.js) - Google Analytics