`

HBase-HLog分析

 
阅读更多

HLog的全部实现在包:

org.apache.hadoop.hbase.regionserver.wal 中

 

相关的配置为

参数名 默认值 含义
hbase.regionserver.hlog.enabled true 是否启用WAL
hbase.regionserver.hlog.writer.impl SequenceFileLogWriter HLog.Writer实现类
hbase.regionserver.hlog.reader.impl SequenceFileLogReader HLog.Reader实现类
hbase.regionserver.hlog.keyclass HLogKey HLog.Entry的key实现类
hbase.regionserver.wal.enablecompression false 是否对日志压缩
io.file.buffer.size 4096 读取文件的buffer大小
hbase.regionserver.hlog.replication 1 复制类型
hbase.regionserver.hlog.blocksize 32M 文件系统块大小
hbase.regionserver.hlog.lowreplication.rolllimit 5 若低于副本数,尝试几次
hbase.regionserver.hlog.tolerable.lowreplication ?? 未知
hbase.regionserver.maxlogs 32 最大日志个数
hbase.regionserver.logroll.multiplier 0.95 到HDFS块95%时回滚

hbase.regionserver.hlog.lowreplication.rolllimit

其中在Hlog.syncer方法中调用checkLowReplication方法用来判断是否hlog在hdfs上的副本数低于配置项,

若低于则requestLogRoll,最终调用logRollRequested方法,但是调用次数不超过默认5次

 

核心类HLog,负责创建读,写接口的实现,完成最终的写入数据,读数据等。

HLog.Reader  HLog读接口,实现类:SequenceFileLogReader

HLog.Writer    HLog写接口,实现类:SequenceFileLogWriter

HLog中包含了若干 HLog.Entry,Entry是一个K/V键值对

键为:HLogKey

值为:WALEdit

工具类:

    HLogSplitter(./hbase hlog命令实现类)

    Compressor(负责将input内容压缩到output中,或者input内容解压到output中)

WALActionsListener  日志的观察者监听类,当日志发生变化了可以触发观察者,比如replication功能就是实现了这个接口。 

 

HLog是一个二进制格式的文件,文件开头二进制信息:

SEQ0org.apache.hadoop.hbase.regionserver.wal.HLogKey0org.apache.hadoop.hbase.regionserver.wal.WALEdit

一个HLog文件如下:


 

 

这里注明了key和value使用的分别是HLogKey和WALEdit两个类

HLog中包含若干Entry,HLog是一个顺序的文件结构,没有索引,所有的Entry都是顺序挨个读取的。

HLog格式如下图:

 


 

HLog$Entry包含一个key,value
key:    HLogKey
value: WALEdit
Entry二进制内容如下:
1.总数据长度(hlogkey+waledit)
2.key长度
3.数据

 

HLogKey
1.变长int
2.编码后的region名字(若启用压缩则写入压缩后的内容)
3.表名(若启用压缩则写入压缩后的内容)
4.long长度的序列号
5.long长度的时间戳
6.1字节UUID标识(是否用默认的UUID标识)
7.UUID前8个字节
8.UUID后8个字节

 

WALEdit
1.int长度版本号
2.int长度KeyValue个数
3.遍历写入KeyValue(若启用压缩则写入压缩后的内容)
    3-1.KeyValue长度(int)
    3-2.KeyValue的二进制数据(4字节的key长,4字节的value长,2字节的rowkey长,key,1字节的family长,family,
        qualify,8字节的timestampe,1字节的keytype,变成long的memstoreMVC
4.socpe个数(若scope为null则写入0)
5.遍历写入每个scope(int长度)

 

 

HLog读取,写入的列子

	/**
	 * 读取HLog中的内容
	 * @throws IOException
	 */
	public void read()throws IOException {
		FileSystem fs = FileSystem.get(cfg);
		Path path = new Path("/test/hbase/hlog.1234567890");
		HLog.Reader reader = HLog.getReader(fs, path, cfg);
		HLog.Entry entry = reader.next();
		HLogKey key = entry.getKey();
		WALEdit edit = entry.getEdit();
		
		System.out.println( Bytes.toString(key.getEncodedRegionName()) );
		System.out.println( Bytes.toString(key.getTablename()) );
		System.out.println( key.getLogSeqNum() );
		System.out.println( key.getWriteTime() );
		System.out.println( key.getClusterId().toString() );
		
		List<KeyValue> list = edit.getKeyValues();
		for(KeyValue kv:list) {
			System.out.println(kv.toString());
		}
		while( (entry=reader.next()) !=null ) {
			System.out.println(entry);
		}
		
	}

 

 

 

	/**
	 * 将数据写入到HLog,用HLog.Writer直接写入数据
	 * @throws IOException
	 */
	public void write() throws IOException {
		FileSystem fs = FileSystem.get(cfg);
		Path path = new Path("/test/hbase/hlog.1234567890");
		HLog.Writer writer =  HLog.createWriter(fs, path, cfg);
		byte[] encodedRegionName = Bytes.toBytes("myregion");
		byte[] tablename = Bytes.toBytes("test");
		long logSeqNum = 100;
		long now = System.currentTimeMillis();
		UUID clusterId = UUID.randomUUID();
		
		HLogKey key1 = new HLogKey(encodedRegionName, tablename, logSeqNum, now, clusterId);
		WALEdit edit1 = new WALEdit();
		edit1.add(generator("key111111111111111111111111", "column", "a",System.currentTimeMillis(), new byte[] { '2' }));		
		HLog.Entry entry1 = new Entry(key1, edit1);
		
		HLogKey key2 = new HLogKey(encodedRegionName, tablename, 101L, now, UUID.randomUUID());
		WALEdit edit2 = new WALEdit();
		edit2.add(generator("key333333333333333333333333", "column", "b",System.currentTimeMillis(), VALUES));
		HLog.Entry entry2 = new Entry(key2, edit2);
		writer.append(entry2);
		writer.append(entry1);
		writer.sync();
		writer.close();
	}

 

	/**
	 * 使用HLog写入数据
	 * @throws IOException
	 */
	public void hlogWriter() throws IOException {
		FileSystem fs = FileSystem.get(cfg);
		String regionDir = "/test/hbase/hlog";
		HLog log = new HLog(fs, new Path(regionDir, "logs"), new Path(regionDir, "oldlogs"), cfg);
		byte[] tableName = Bytes.toBytes("test");
		byte[] startKey = Bytes.toBytes("aaaaa1111111111");
		byte[] endKey = Bytes.toBytes("zzzzz9999999999");
		HRegionInfo info = new HRegionInfo(tableName, startKey, endKey);

		WALEdit edit = new WALEdit();
		edit.add(generator("key333333333333333333333333", "column", "a",System.currentTimeMillis(), new byte[] { '2' }));
		edit.add(generator("key333333333333333333333333", "column", "b",System.currentTimeMillis(), VALUES));

		UUID uuid = UUID.randomUUID();
		long now = System.currentTimeMillis();
		HColumnDescriptor family = new HColumnDescriptor("column");
		HTableDescriptor descriptor = new HTableDescriptor();
		descriptor.addFamily(family);
		log.append(info, tableName, edit, uuid, now, descriptor);
		log.sync();
		log.hflush();
		log.hsync();
		log.close();
	}

  

	/**
	 * 生成KeyValue
	 * @param key
	 * @param column
	 * @param qualifier
	 * @param timestamp
	 * @param value
	 * @return
	 */
	public KeyValue generator(String key, String column, String qualifier,
			long timestamp, byte[] value) {
		byte[] keyBytes = Bytes.toBytes(key);
		byte[] familyBytes = Bytes.toBytes(column);
		byte[] qualifierBytes = Bytes.toBytes(qualifier);
		Type type = Type.Put;
		byte[] valueBytes = value;
		KeyValue kv = new KeyValue(keyBytes, 0, keyBytes.length, familyBytes,
				0, familyBytes.length, qualifierBytes, 0,
				qualifierBytes.length, timestamp, type, valueBytes, 0,
				valueBytes.length);
		return kv;
	}

 

 

 

 

  • 大小: 205.8 KB
  • 大小: 47 KB
分享到:
评论

相关推荐

    hbase-1.2.6-bin.tar.gz

    HBase通常用于实时数据分析,如Web日志分析、用户行为追踪、物联网(IoT)数据存储、搜索引擎索引等场景,尤其适合那些对读写性能要求高、数据量庞大的应用。 总之,HBase 1.2.6是一个经过时间验证的稳定版本,为大...

    hbase-1.0.1.1-bin.tar.gz.zip

    - Spark:Spark可以与HBase进行交互,支持实时数据处理和分析。 6. **最佳实践** - 行键设计:优化行键设计,避免热点问题,提高查询效率。 - 列族规划:根据数据访问模式合理划分列族,减少I/O。 - 监控与调优...

    hbase-0.98.1源码包

    5. 数据模型:HBase采用稀疏、多版本的键值对数据模型,适合大数据分析。 6. MapReduce支持:HBase可以与MapReduce结合,进行大规模数据处理。 源码分析可以从以下几个方面入手: 1. 源码结构:了解项目目录结构,...

    hbase-2.1.7-bin.tar.gz

    HBase广泛应用于日志分析、物联网数据存储、实时监控系统、用户行为分析等领域。例如,Facebook使用HBase存储用户消息,Twitter则利用它来管理时间线数据。 总结,HBase 2.1.7作为大数据处理的关键组件,其强大的...

    hbase2.5.6最新版本下载

    HBase是Apache软件基金会开发的一个开源、...无论是对于实时分析、大规模数据存储还是复杂的查询需求,HBase都是一个值得信赖的解决方案。在使用HBase 2.5.6时,建议充分了解其特性和最佳实践,以充分发挥其潜力。

    hbase-0.98.8-src.tar.gz

    3. HLog:日志系统,用于数据持久化和故障恢复。 4. HFile:HBase的数据存储格式,优化了列存取。 5. Coprocessor:用户可以自定义的扩展点,用于实现细粒度的数据操作和计算。 HBase 0.98.8版本可能包含以下改进和...

    hbase的rowkey设计与hbase的协处理器运用.docx

    HBase 协处理器是一种高级的数据处理机制,可以对数据进行实时处理和分析。协处理器可以应用于数据清洁、数据转换、数据聚合等场景。 HBase 是一个功能强大且高性能的 NoSQL 数据库,具有广泛的应用前景。 RowKey ...

    HbaseReferenceBook-Hbase参考指南英文版

    HBase将数据存储在HDFS中,并通过HLog进行数据的日志记录,以保证数据的一致性和可靠性。HBase的设计也涉及到数据的物理存储和内存管理,以及如何通过RegionServer和MasterServer来维护数据的水平扩展性和高可用性。...

    hbase备份和数据恢复

    在大数据领域,HBase是一个基于Hadoop的分布式数据库,它为...而HBase与Hive的互导以及与HDFS的互导则为大数据分析提供了灵活的数据流转路径。理解和掌握这些知识点对于管理和优化大数据环境中的HBase操作至关重要。

    Hbase 高可用分布式搭建

    4. 数据复制:开启HBase的多版本特性,可以设置WAL(Write-Ahead Log)和HLog的复制,增强数据安全性。 五、HBase分布式搭建步骤 1. 安装Java环境:HBase依赖Java运行,确保所有节点安装JDK。 2. 安装Hadoop:按照...

    hbase源码分析

    ### HBase源码分析 #### 一、HBase性能测试要点与分析 ##### 1.1 测试环境 - **硬件配置**: - 客户端:1台 - RegionServer:5台 - Master:1台 - ZooKeeper:3台 - **软件配置**: - CPU:每台服务器配备8...

    HBase技术介绍.docx

    - **HLog**: 日志文件,用于记录Region内发生的变更事务,以保证数据的一致性和完整性。 ### 总结 HBase作为一个面向列的分布式数据库系统,在大数据处理领域扮演着重要角色。通过高效的数据存储和访问机制,HBase...

    HBASE编程指南word版

    - **HLog (HBase Log)**: 记录每次修改操作的日志文件,保证数据的一致性。 - **后台进程**: 包括Compaction、Split等,用于优化存储结构、提升性能。 #### 四、客户端访问HBase - **本地Java客户端**: 提供了直接...

    大数据HBASE考题材料

    - HLog:HBase通过维护WAL(Write Ahead Log)来防止MemStore中的数据丢失,确保即使在系统崩溃的情况下也能恢复数据。 10. **HBase的主要操作** - Get:获取特定rowkey的数据。 - Put:插入或更新数据。 - ...

    hbase指南 英文

    - **HLog**:HBase 使用 HLog 来记录事务日志,确保数据的一致性和持久性。 - **MemStore**:用于存储最新的未持久化的数据修改,当 MemStore 达到一定大小后,会触发刷盘操作,将数据写入磁盘。 - **HFile**:HFile...

    Apache Hadoop---HBase.docx

    - **HLog**: HLog是HBase的日志文件,用于记录所有HRegionServer的写操作,以确保数据的持久性和故障恢复。 3. **HBase总体架构组件** - **HMaster**: 管理全局的HBase集群,负责HRegion的分配、RegionServer监控...

    搭建HBase完全分布式数据库

    2. HRegionServer:负责维护和管理HRegion,HRegion是HBase表的数据存储单元,负责对HDFS中读写数据和管理HRegion和Hlog。 3. HStore:HStore是数据存储的基本单元,它包含MemStore和StoreFile。MemStore负责暂时...

    Hbase权威指南 随书源代码 源码包 绝对完整版

    HBase适用于需要实时访问海量结构化数据的应用场景,如日志分析、物联网(IoT)数据存储、监控系统等。 源码包中的"POM文件"是Maven项目的配置文件,它定义了项目依赖、构建过程和其他元数据。通过导入这个POM文件到...

Global site tag (gtag.js) - Google Analytics