`
chenchao051
  • 浏览: 137761 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

HBase LRU源码解析

 
阅读更多
先来看下LruBlockCache的构造,关键是看清每个参数的作用:
  /**
   * Configurable constructor.  Use this constructor if not using defaults.
   * @param maxSize maximum size of this cache, in bytes
   * @param blockSize expected average size of blocks, in bytes
   * @param evictionThread whether to run evictions in a bg thread or not
   * @param mapInitialSize initial size of backing ConcurrentHashMap
   * @param mapLoadFactor initial load factor of backing ConcurrentHashMap
   * @param mapConcurrencyLevel initial concurrency factor for backing CHM
   * @param minFactor percentage of total size that eviction will evict until
   * @param acceptableFactor percentage of total size that triggers eviction
   * @param singleFactor percentage of total size for single -access blocks
   * @param multiFactor percentage of total size for multiple -access blocks
   * @param memoryFactor percentage of total size for in -memory blocks
   */
  public LruBlockCache( long maxSize, long blockSize, boolean evictionThread,
      int mapInitialSize, float mapLoadFactor, int mapConcurrencyLevel,
      float minFactor , float acceptableFactor,
      float singleFactor, float multiFactor, float memoryFactor) {
    if(singleFactor + multiFactor + memoryFactor != 1) {
      throw new IllegalArgumentException("Single, multi, and memory factors " +
          " should total 1.0");
    }
    if(minFactor >= acceptableFactor) {
      throw new IllegalArgumentException("minFactor must be smaller than acceptableFactor");
    }
    if(minFactor >= 1.0f || acceptableFactor >= 1.0f) {
      throw new IllegalArgumentException("all factors must be < 1" );
    }
    this. maxSize = maxSize;
    this. blockSize = blockSize;
    map = new ConcurrentHashMap<String,CachedBlock>(mapInitialSize,
        mapLoadFactor, mapConcurrencyLevel);
    this. minFactor = minFactor;
    this. acceptableFactor = acceptableFactor;
    this. singleFactor = singleFactor;
    this. multiFactor = multiFactor;
    this. memoryFactor = memoryFactor;
    this. stats = new CacheStats();
    this. count = new AtomicLong(0);
    this. elements = new AtomicLong(0);
    this. overhead = calculateOverhead(maxSize, blockSize, mapConcurrencyLevel);
    this. size = new AtomicLong(this.overhead);
    if(evictionThread) {
      this. evictionThread = new EvictionThread(this);
      this. evictionThread.start(); // FindBugs SC_START_IN_CTOR
    } else {
      this. evictionThread = null ;
    }
    this. scheduleThreadPool.scheduleAtFixedRate(new StatisticsThread(this),
        statThreadPeriod, statThreadPeriod , TimeUnit.SECONDS);
  }



接下来我们还需要了解几个相关的类:

public class CachedBlock implements HeapSize, Comparable<CachedBlock >


这个类代表了LruBlockCache中的一个条目,它里面有个非常关键的枚举:
  static enum BlockPriority {
    /**
     * Accessed a single time (used for scan -resistance)
     */
    SINGLE,
    /**
     * Accessed multiple times
     */
    MULTI,
    /**
     * Block from in -memory store
     */
    MEMORY
  };


通过以下代码可以更好的解释:
  public CachedBlock(String blockName, ByteBuffer buf, long accessTime,
      boolean inMemory ) {
    this. blockName = blockName;
    this.buf = buf;
    this. accessTime = accessTime;
    this. size = ClassSize. align(blockName.length()) +
    ClassSize.align(buf.capacity()) + PER_BLOCK_OVERHEAD;
    //第一次缓存一个block时,假设inMemory为false(默认),那么会把这个CachedBlock的BlockPriority 设置为SINGLE, 否则为MEMORY。
    if(inMemory ) {
      this. priority = BlockPriority. MEMORY;
    } else {
      this. priority = BlockPriority. SINGLE;
    }
  }



 /**
   * Block has been accessed.  Update its local access time.
   */
  public void access(long accessTime) {
    this. accessTime = accessTime;
    // 当再次访问到时,假如此时CacheedBlock的BlockPriority的值是SINGLE,则把它变为MULTI 
    if(this. priority == BlockPriority. SINGLE) {
      this. priority = BlockPriority. MULTI;
    }
  }



另一方面,因为是LRU算法的实现,该类也实现了一个比较器:
  public int compareTo(CachedBlock that) {
    if(this. accessTime == that.accessTime ) return 0;
    return this.accessTime < that.accessTime ? 1 : -1;
  }

因为它实现了HeapSize这个接口,所以它能返回这个条目所占用的heap大小。

另一个关键的类是LruBlcokCache的内部类:
private class BlockBucket implements Comparable<BlockBucket >

这个类的作用是把所有的block分到不同的priority bucket中,每个BlockPriority都会有自己的一个bucket

我们可以开始看将一个新的block加入缓存:
  public void cacheBlock(String blockName, ByteBuffer buf, boolean inMemory ) {
    //private final ConcurrentHashMap<String,CachedBlock> map, 维护了缓存映射
    CachedBlock cb = map.get(blockName);
    //如果这个block已经被缓存了,那么就抛出一个运行时异常
    if(cb != null) {
      throw new RuntimeException("Cached an already cached block" );
    }
    //初始化一个新的CachedBlock
    cb = new CachedBlock(blockName, buf, count.incrementAndGet(), inMemory);
    //得到最新的heapsize
    long newSize = size.addAndGet(cb.heapSize());
    //将新增的block放到map中
    map.put(blockName, cb);
    //elements记录了目前缓存的数目
    elements.incrementAndGet();
    //假如最新的heapsize大于了acceptableSize(见下面的方法),那么就需要进行evict动作
    if(newSize > acceptableSize() && ! evictionInProgress) {
      runEviction();
    }
  }
 //-----------------------------
  //假如没有特定的清理线程,那么就使用目前的线程来进行evict,这显然不是一个好主意,会造成阻塞,假如有清理线程,那么调用其evict方法 
  private void runEviction() {
    if(evictionThread == null) {
      evict();
    } else {
      evictionThread.evict(); //事实上是触发了清理线程的notify
    }
  }


有必要来看一下这个清理线程,在初始化LruBlockCache的时候就已经将其启动:
  private static class EvictionThread extends Thread {
    private WeakReference<LruBlockCache> cache;

    public EvictionThread(LruBlockCache cache) {
      super( "LruBlockCache.EvictionThread" );
      setDaemon( true);
      this. cache = new WeakReference<LruBlockCache>(cache);
    }

    @Override
    //这里使用了wait和notify机制,线程将一直等待,知道有notify消息过来说需要进行清理了
    public void run() {
      while( true) {
        synchronized(this ) {
          try {
            this.wait();
          } catch(InterruptedException e) {}
        }
        //这里cache使用了弱引用
        LruBlockCache cache = this.cache .get();
        if(cache == null) break;
        cache.evict();
      }
    }
    public void evict() {
      synchronized( this) {
        this.notify(); // FindBugs NN_NAKED_NOTIFY
      }
    }
  }



看具体的evict方法:
 void evict () {

    // Ensure only one eviction at a time
    if(!evictionLock.tryLock()) return;

    try {
      evictionInProgress = true;
      long currentSize = this.size .get();
      //需要释放掉的heap大小
      long bytesToFree = currentSize - minSize();

      if (LOG.isDebugEnabled()) {
        LOG.debug("Block cache LRU eviction started; Attempting to free " +
          StringUtils. byteDesc(bytesToFree) + " of total=" +
          StringUtils. byteDesc(currentSize));
      }

      if(bytesToFree <= 0) return;

      // Instantiate priority buckets
      //初始化三个桶,来存放single,multi,和memory,比例分别为25%,50%,25%
      BlockBucket bucketSingle = new BlockBucket(bytesToFree, blockSize ,
          singleSize());
      BlockBucket bucketMulti = new BlockBucket(bytesToFree, blockSize ,
          multiSize());
      BlockBucket bucketMemory = new BlockBucket(bytesToFree, blockSize ,
          memorySize());

      // Scan entire map putting into appropriate buckets
      for(CachedBlock cachedBlock : map.values()) {
        switch(cachedBlock.getPriority()) {
          case SINGLE : {
            bucketSingle.add(cachedBlock);
            break;
          }
          case MULTI : {
            bucketMulti.add(cachedBlock);
            break;
          }
          case MEMORY : {
            bucketMemory.add(cachedBlock);
            break;
          }
        }
      }

      //接下来将三个桶放入PriorityQueue
      PriorityQueue<BlockBucket> bucketQueue =
        new PriorityQueue<BlockBucket>(3);
      
      //会调用到CachedBlockQueue的add方法,下面分析
      bucketQueue.add(bucketSingle);
      bucketQueue.add(bucketMulti);
      bucketQueue.add(bucketMemory);

      int remainingBuckets = 3;
      long bytesFreed = 0;

      BlockBucket bucket;
     //溢出的多的那个桶,会越先被清理, 参看BlockBucket的compareTo方法
       //这里也说明,三个桶本身没有优先级
      while((bucket = bucketQueue.poll()) != null) {
        long overflow = bucket.overflow();
        if(overflow > 0) {
          // 本次要释放掉的内存
          long bucketBytesToFree = Math.min(overflow, (bytesToFree - bytesFreed) / remainingBuckets);
          //free方法在下面解释
          bytesFreed += bucket.free(bucketBytesToFree);
        }
        remainingBuckets--;
      }

      if (LOG.isDebugEnabled()) {
        long single = bucketSingle.totalSize();
        long multi = bucketMulti.totalSize();
        long memory = bucketMemory.totalSize();
        LOG.debug("Block cache LRU eviction completed; " +
          "freed=" + StringUtils.byteDesc(bytesFreed) + ", " +
          "total=" + StringUtils.byteDesc( this.size .get()) + ", " +
          "single=" + StringUtils.byteDesc(single) + ", " +
          "multi=" + StringUtils.byteDesc(multi) + ", " +
          "memory=" + StringUtils.byteDesc(memory));
      }
    } finally {
      stats.evict();
      evictionInProgress = false;
      evictionLock.unlock();
    }
  }


public void add(CachedBlock cb) {
    //如果当前的heapsize小于maxsize,直接加到queue中,这边的queue也是一个PriorityQueue
    if(heapSize < maxSize) {
      queue.add(cb);
      heapSize += cb.heapSize();
    } else {
      // 否则先取出列表头
      CachedBlock head = queue.peek();
      //判断假如的cb是不是比head大,实际的意义就是看新加入的cb是不是比head新,参看CachedBlock的compareTo方法,假如新,则继续
      if(cb.compareTo(head) > 0) {
        heapSize += cb.heapSize();
        heapSize -= head.heapSize();
        if(heapSize > maxSize ) {
          //取出head
          queue.poll();
        } else {
          heapSize += head.heapSize();
        }
        queue.add(cb);
      }
    }
  }



 public long free(long toFree) {
      //这边的queue是CacheBlockQueue类型,这个get方法很重要,它对PriorityQueue做了反序,这样的话就把时间最早的放在队列头
      LinkedList<CachedBlock> blocks = queue.get();
      long freedBytes = 0;
      for(CachedBlock cb: blocks) {
        freedBytes += evictBlock(cb);
        if(freedBytes >= toFree) {
          return freedBytes;
        }
      }
      return freedBytes;
    }



  //最后调用这个方法将block从map中移除:
  protected long evictBlock(CachedBlock block) {
    map.remove(block.getName());
    size.addAndGet(-1 * block.heapSize());
    elements.decrementAndGet();
    stats.evicted();
    return block.heapSize();
  }

分享到:
评论

相关推荐

    【No0057】HBase源码解析与开发实战.txt

    ### HBase源码解析与开发实战 #### 一、HBase简介 HBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的 Google 论文 “Bigtable:一个结构化数据的分布式存储系统”。就像 Bigtable 利用了...

    hadoop2.x、Hive、HBase源码解析+企业级应用

    hadoop2.x、Hive、HBase源码解析+企业级应用视频,本人花钱买的视频,全部的还没有看,如果感觉老师讲的不好,请不要碰我,谢谢

    HBase源码分析

    HBase源码分析揭示了HBase在RPC通信机制方面的一些关键技术点,这包括了角色分配、通信信道建立、通信接口协议定义、对象序列化、传输控制和会话管理,以及在传输过程中可能出现的错误处理和重试机制。 HBase中的...

    HBase实战源码

    《HBase实战源码》是针对Apache HBase这一分布式、高性能、基于列族的NoSQL数据库的深度解析书籍。源码分析是理解HBase工作原理和技术细节的重要途径。HBase在大数据领域扮演着关键角色,它能够处理海量数据并提供...

    基于Java语言的HBase数据库设计源码解析

    本项目为HBase数据库设计源码解析,采用Java语言编写,共包含1248个文件,其中1128个为Java源文件,辅以71个文本文件、39个图片文件、7个图片文件以及2个XML文件和1个Git忽略文件。

    hbase-0.98.1源码包

    源码包“hbase-0.98.1-src.tar.gz”提供了HBase 0.98.1版本的完整源代码,对于理解其内部工作原理、进行二次开发或调试是非常有价值的。 HBase的核心概念包括: 1. 表:HBase中的表由行和列族组成,表名全局唯一。...

    hbase源码包和测试用例

    《深入理解HBase:源码剖析与测试实践》 HBase,全称为Hadoop Database,是一种基于Apache Hadoop的开源分布式非关系型数据库。它的设计灵感来源于Google的Bigtable,旨在处理大规模数据集,通常在PB级别以上。...

    HBase源码(hbase-2.4.9-src.tar.gz)

    HBase源码(hbase-2.4.9-src.tar.gz)是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。就像Bigtable利用了Google文件系统(File ...

    hbase 源码包

    三、HBase源码解析 1. **Region分配与负载均衡**:在`org.apache.hadoop.hbase.master`包下,RegionServerTracker类负责监控Region服务器状态,LoadBalancer类实现Region的负载均衡策略。 2. **元数据管理**:元...

    hbase权威指南源码

    《HBase权威指南》是一本深入探讨分布式大数据存储系统HBase的专业书籍,其源码提供了对书中各个章节涉及技术的直观展示和实践操作。源码分析可以帮助读者更好地理解和应用书中的理论知识,以下是对这份源码包中可能...

    hbase 1.2.0源码

    HBase 1.2.0是该数据库的一个稳定版本,包含了众多优化和改进,对于想要深入理解HBase工作原理或者进行大数据分析的学习者来说,研究其源码是非常有价值的。 一、HBase架构与核心概念 1. 表与Region:HBase中的...

    HBaseTest_hbase_源码

    《深入理解HBase:从HBaseTest源码解析开始》 HBase,作为Apache软件基金会的一个开源项目,是构建在Hadoop之上的分布式列式数据库,特别适合处理大规模数据。其设计灵感来源于Google的Bigtable,提供高吞吐量的...

    Hbase1.3.1源码

    在HBase 1.3.1的源码中,我们可以深入理解这个系统的内部工作原理,包括以下几个关键知识点: 1. **Maven构建系统**:HBase使用Maven作为构建工具,源码组织结构遵循Maven的标准目录结构,如src/main/java存放Java...

    基于springboot集成hbase过程解析

    "基于SpringBoot集成HBase过程解析" SpringBoot集成HBase是当前大数据处理和存储解决方案中的一种常见组合。HBase是基于Hadoop的分布式、可扩展的NoSQL数据库,能够存储大量的结构化和非结构化数据。SpringBoot则...

    Hbase权威指南 随书源代码 源码包 绝对完整版

    Hbase权威指南 随书源代码 源码包 绝对完整版 maven工程,带pom文件,可以直接作为一个完整工程导入eclipse等ide。

Global site tag (gtag.js) - Google Analytics