1、数据结构
关系数据库一般用B+树,HBASE用的是LSM树。MYSQL所用类B+树一般深度不超过3层,数据单独存放,在B+树的叶节点存储指向实际数据的指针,叶节点之间也相互关联,类似双向链表。这种结构的特点是数据更新或写入导致数据页表分散,不利于顺序访问。LSM存储中,各个文件的结构类似于B+树,但是分多个存在内存或磁盘中,更新和写入变成了磁盘的顺序写,只在合并时去掉重复或过时的数据。也就是说,LSM树将B+树种的随机写变成顺序写,从而提高写吞吐量。
2、存储
存储对象:HregionServer对应多个HRegion,Region的每个列族对应一个Store,每个Store对应多个StoreFile,以及一个memstore。当然,数据刷写时,一个Region只要有一个列族的memStore需要刷写磁盘,则该region的所有列族的memstore都会刷写磁盘。
数据访问流程:客户端联系zookeeper集群查找-ROOT-表所在Region服务器,通过-ROOT- Region服务器查找.Meta.表中含有数据region的服务器,然后在.META.表中定位到实际数据对应region的服务器,最后连接这个服务器读写数据。
写路径:客户端发起put等请求,交给HRegion实例来处理。HRegion根据put设置决定是否要预写日志,日志写完后数据被写入memstore中。若memstore已满,则数据被刷写到磁盘,同时在文件中保存最后写入的序列号(跟Hlog中的序列号一样,用于决定日志重做起始位置)。
hbase在hadoop上的文件:分为根级文件和表级文件。第一组是WAL文件,对应/hbase/.logs/目录,每个region服务器在该目录下对应一个子目录,里面包含多个日志文件(日志滚动产生:hbase.regionserver.logroll.period)。当日志对应的所有修改被刷写到磁盘,则该日志文件会被转到/hbase/.oldlogs/目录中,再过一段时间(对应配置hbase.master.logcleaner.interval)会被master删除。另外,/hbase/hbase.id和/hbase/hbase.version分别对应集群的唯一ID和文件格式的版本信息。此外,/hbase/splitlog/和/hbase/.corrupt/分别对应存储日志拆分过程中产生的中间拆分文件和损坏的日志。
表级文件,每张表对应/hbase/tableName/目录,该目录包含.tableinfo文件,用来存储HTableDescriptor的序列化信息。
表级目录下每个region对应一个子目录,目录中包含一个.regioninfo文件,对应HRegionInfo的序列化信息。日志拆分完成后会在对应Region目录下创建recovered.edits目录,用来存放需要恢复的日志。当region被打开时,region服务器会看到需要回复的文件并重做。region拆分时,关闭该region,在该region目录下创建spits目录,包括新的region目录和引用文件,然后将两个目录移到表目录下,.META.表中父region被更新,增加splitA列和splitB列以标志该region正被更新。之后同时打开两个子region,更新.META.表,增加子region的条目。最后在region目录下的.tmp目录拷贝父region的文件数据。
合并:合并分为minor和并和major和并。minor合并的文件最小数量控制:hbase.hstore.compaction.min或hbase.htore.compactionThreshold,最大数量控制:hbase.hstore.compaction.max,被合并文件最大尺寸控制:hbase.hstore.compaction.max.size,最小尺寸:hbase.hstore.compaction.min.size表示所有小于该值的文件都将参与合并,直到达到合并文件最大数量限制。major合并检查的触发条件:memstore被刷写,shell执行compact或major_compact,或相应API调用。除非执行major_compact或majorCompact API,否则不会绕过检查阶段的。
HFILE:HFile由块组成包括数据块,FileInfo块和Trailer块。值得注意的块的大小,太小会增加块间索引空间,太大会导致每次get操作读入内存的数据量过大,影响IO性能。顺序读多的情况下设置块较大,随机读多的情况下减小块配置,建议8k-1M。对于带压缩的表,每块实际大小会比设置的块大小要小。
3、WAL
实现WAL的类叫Hlog,如果是在大批量导入数据的mapreduce,建议关闭写日志。Hlog维护一个序列号,要么从零开始,要么从每一个数据文件storefile中取出序列号,取其最大值,最中数据文件中的序列号和日志中的序列号完全对应,以便日志重做。一个region服务器上所有region共享一个hlog实例,意味着所有日志顺序写入日志文件,在日志重做时会产生日志拆分带来的额外开销。WAL用hadoop的SequenceFile存日志,其中key对应类HLogKey包含(表名和region)。客户端的每个修改被封装为一个WALEdit实例。LogSyncer提供了日志延迟刷写的特性,通过hbase.regionserver.optionallogflushinterval设置刷写间隔。
普通的hadoop文件是一读多写,在写入过程中其他用户不可见这个文件。但如果在写日志过程中服务器崩溃,是不是会出问题呢?幸好hadoop新版本添加了append属性,用户可以读到上次崩溃的日志位置。
4、读路径
get即scan:hbase中没有索引文件,hFile中最小的单元是块,所以regionserver和底层的Store必须定位到块后把块载入内存然后遍历这个块,才能确定所需数据。这就是scan做的事情,get也必须这么做。
查询数据时,首先是用时间戳或布隆过滤器去掉那些绝对不包含keyvalue的文件。然后加载剩余所有文件的可能数据块。最终还要把keyvalue排序,取得合适的数目的版本数据,以及判断是否有墓碑标记覆盖的过时记录。
5、region查找
一般情况是3次网络往返定位到特定region:请求zookeeper查找-ROOT-表,请求-ROOT-表所在region服务器查找.META.表对应的region,再从上一步结果对应的region服务器查找正真的数据region。但是当缓存的region位置信息过期,或者region服务器发生了拆分、合并、移动或负载均衡等操作,最坏情况下定位region服务器需要6次网络往返请求。这是因为客户端采用的是回退迭代的思路,即第一次直接访问发现region不在了,接着会去用缓存的-ROOT-信息定位.META.表位置,发现.META.数据失效,从zookeeper请求-ROOT-表信息,则回到3次网络请求的步骤。
6、zookeeper
zookeeper用来跟踪region服务器,保存-ROOT-表地址等。加入zookeeper后,region服务器发送给master的心跳信息交给了zookeeper。hbase集群的跟节点:/hbase,由属性zookeeper.znode.parent参数控制。
/hbase/hbaseid:集群ID
/hbase/master:master的服务器名和端口
/hbase/replication:副本信息
/hbase/root-region-server:包含-ROOT-表所在region服务器的机器名。
/hbase/rs:region服务器的根节点,集群用来跟踪服务器异常。每个region服务器有一个以region服务器名为名称的znode临时节点。
相关推荐
《HBase应用架构》这本书由吉恩-马克·斯帕加里撰写,中文版由陈敏敏、夏锐和陈其生翻译,深入探讨了分布式大数据存储系统HBase的架构和应用。HBase是建立在Apache Hadoop之上的一款非关系型数据库,特别适合处理...
HBase存储架构详解 HBase存储架构是HBase的核心组件之一,它们之间的关系非常复杂。本文将详细解释HBase存储架构的组件、它们之间的...3. 实时数据处理:HBase存储架构可以用于实时数据处理,提供高性能的读写操作。
Hbase利用Hadoop的HDFS作为其文件存储系统,利用Hadoop的MapReduce来处理Hbase中的海量数据。利用zookeeper作为其协调工具。 本篇文章将重点介绍Hbase三个方面的内容:Hbase体系结构(架构)的介绍、Hbase shell的...
《HBase资源合集》包含了四本重量级的书籍,分别是《HBase企业应用开发实战》、《HBase权威指南》、《HBase实战》以及《HBase应用架构》。这些书籍深入浅出地探讨了HBase在大数据环境中的应用与开发,是学习和掌握...
HBase是一个开源的分布式列式数据库,源自Google Bigtable的设计理念。它被设计用来处理海量数据,尤其是在廉价的PC服务器...通过其独特的架构设计,HBase能够有效地处理PB级别的数据,并确保数据的高可用性和一致性。
Hbase系统架构及数据结构,进阶篇
HBase的系统架构是基于Master-Slave模型的,Master节点负责管理整个系统,而Slave节点负责存储和处理数据。 API Cassandra提供了多种API,包括Basic API和Advanced API。Basic API提供了基本的CRUD操作,而...
本文来自于csdn,介绍了Hadoop的原理,HBase的特点,HBase 的高并发和实时处理数据,数据模型,工作流程等。(一)HDFS主要是用于做什么的?HDFS(HadoopDistributedFileSystem)分布式文件管理系统、是Hadoop项目的...
总之,HBase的架构和组件设计体现了它作为一个分布式NoSQL数据库的优势和特点,通过合理的数据划分、负载均衡和故障转移机制,保证了数据存储的高可靠性和系统的高性能。HBase特别适用于处理大量数据的实时读写操作...
通过本文的介绍,我们了解了Kettle集群的基本概念、搭建步骤以及如何使用Kettle将MySQL数据转换为HBase数据的过程。Kettle作为一款强大的数据集成工具,在企业级数据处理中扮演着重要的角色,尤其是在大数据时代背景...
《大数据书籍-Hbase架构设计》是一本专注于大数据领域中分布式数据库Hbase的深度解析书籍,适合对大数据技术尤其是Hbase感兴趣的程序员和数据分析师。书中详细阐述了Hbase的核心原理、生态环境以及在实际项目中的...
### HBASE架构与原理详解 ...通过其独特的数据模型和分布式架构,HBase能够在保持高可靠性和高性能的同时,支持海量数据的存储和实时访问。对于需要处理PB级数据的应用场景而言,HBase无疑是一个强大的选择。
【HBase数据模型】 HBase的数据模型包括表、行和列。数据以表格的形式逻辑存储,每行都有一个可排序的主键(Row Key)和任意多的列。列由列族(Column Family)组织,列族内可以动态增加列。数据是非常稀疏的,因为...
**HBase架构图** HBase,全称是Apache HBase,是一个分布式的、面向列的开源数据库,基于Google的Bigtable论文设计,是Apache Hadoop项目的一部分。它为大规模数据集(数十亿行,数百万列)提供随机访问和强一致性...
HBase是一种分布式列存储系统,它是构建在Hadoop的分布式文件系统HDFS之上的,主要用于存储海量的结构化数据。作为Apache Hadoop生态系统的关键组成部分,HBase弥补了HDFS在实时随机读写上的不足,提供了高并发、低...
- 与Hive:Hive提供了HBase连接器,可以在Hive SQL中操作HBase数据。 8. **学习资源** - 《HBase应用架构》这本书中的实例和讲解,有助于读者深入理解HBase的使用和优化技巧。 通过以上内容,我们可以了解到...
本文将对比分析Cassandra 和 HBase 的数据模型、系统架构以及API接口等方面的异同点。 #### 二、Cassandra简介 Cassandra 是一个高度可扩展且分布式的键值存储系统,最初由Facebook开发并开源。它采用了Amazon ...
HBase数据结构设计知识梳理: 1. HBase概述 HBase是Apache Software Foundation旗下的一个开源的非关系型分布式数据库(NoSQL),它是Google Bigtable的开源实现,基于Hadoop文件系统(HDFS)构建。HBase的设计目标...
### HBase体系架构 HBase是建立在Hadoop之上的分布式、可扩展的列族数据库。它能够处理PB级别的大规模数据,并提供实时读写能力。HBase的核心设计思想源自Google的Bigtable论文。 #### HBase架构组件 1. **...