知,HBase是Google的BigTable架构的一个开源实现。但是我个人觉得,要做到充分了解下面两点还是有点困难的:
一 HBase涵盖了BigTable规范的哪些部分?
二 HBase与BigTable仍然有哪些区别?
下面我将对这两个系统做些比较。
在做比较之前,我要指出一个事实:HBase是非常接近BigTable论文描述的东西。撇开一些细微的不同,比如HBase 0.20使用ZooKeeper做它的分布式协调服务,HBase已经基本实现了BigTable所有的功能,所以我下面的篇幅重点落在它们细微的区别上,当然也可以说是HBase小组正在努力改进的地方上。
比较范围
本文比较的是基于七年前发表的论文(OSDI’06)所描叙的Google BigTable系统,该系统从2005年开始运作。就在论文发表的2006年末到2007年初,作为Hadoop的子项目的HBase也产生了。在那时,HBase的版本是0.15.0. 如今大约2年过去了,Hadoop 0.20.1和HBase 0.20.2都已发布,你当然希望有一些真正的改进。要知道我所比较的是一篇14页的技术论文和一个从头到脚都一览无余的开源项目。所以下面的比较内容里关于HBase怎么做的讲得比较多点。
在文章的结尾,我也会讨论一些BigTable的如今的新功能,以及HBase跟它们比较如何。好,我们就从术语开始。
术语
有少数几个不同的术语被两个系统用来描述同样的事物。最显著的莫过于HBase中的regions和BigTable中的tablet。自然地,它们各自把一连串的行(Rows)切分交给许多Region server或者tablet server管理。
特性比较
接下来的就是特性比较列表,列表中是BigTable跟HBase的特性比较。有的是一些实现细节,有的是可配置的选项等。让人感到有困惑的是,将这些特性分类很难。
特性
|
BigTable
|
HBase
|
说明
|
读
/
写
/
修改的原子性
|
支持,每行
|
支持,每行
|
因为
BigTable
不像关系型数据库,所以不支持事务。最
接近事务的就是让对每行数据访问具有原子性。
HBase
同样实现了”行锁”的
API
,让用户访问数据时给一行或
者几行数据加锁。
|
词典顺序的行排序
|
支持
|
支持
|
所有行都按照词典顺序排序
|
数据块支持
|
支持
|
支持
|
在数据存储文件中,数据是由更小的数据块构成的。这使从大的存储文件读取数据更快。数据块的大小是可
配置的,典型配置是
64K
。
|
数据块压缩
|
支持,按
Column Family
|
支持,按
Column Family
|
Google
使用
BMDiff
和
Zippy
做两步处理。
BMDiff
工作得很好是因为存储文件中相邻的
key-value
对的内容经常非常相似。因为数据支持多个版本,几个版本的内容会被排序然后被存在一起,它们之间有很
多相同的内容。或者
row key
也会被用这样的方式处理,比如如果用
URL
来作为
row key
,而这些
URL
来自统一个网站,那么
row key
也会有很多相似之
处。
Zippy
使用的是改进的
LZW
算法。
HBase
使用的是
Java
支持的标准的
GZip
,以及一点点
GPL licensed LZO
格式支持。
Hadoop
也有想使用
BMDiff
和
Zippy
的征兆。
|
Column Family
数量限制
|
最多几百
|
小于
100
|
理论上行数和列数是无限的,可是列族(
column family
)却不是。这个只是设计上的一些折中考率
.
|
Column Famil
命名格式
|
可打印
|
可打印
|
HBase
这样做的主要原因是
Column Famil
的名称会被作为文件
系统中的目录名称
|
Qualifier
命名的格式
|
任意
|
任意
|
任意的字节数组
|
Key/Value
对的格式
|
任意
|
任意
|
任意的字节数组
|
访问控制
|
支持 |
无
|
BigTable
支持
column family
级别的访问控制。
HBase
暂不支持
|
Cell
多版本
|
支持
|
支持
|
多版本支持是基于时间戳。
版本数目限制可以基于
cloumn family
级别自
由配置
|
自定义时间戳
|
支持
|
支持
|
两个系统都支持用户设定时间戳,如果用户不指定,则
使用当前时间作为时间戳。
|
数据
TTL
|
支持
|
支持
|
除了数据可以有多个版本,用户还可制定
TTL
(
time-to-live
),当数据到期后会被清除
|
批量写入
|
支持
|
支持
|
都支持批量表操作
|
值计数器
|
支持
|
支持
|
两者都可使用特定的列作为原子计数器。
HBase
实现是:当计数器的值要增长时,它必须获得行锁。
|
行过滤器
|
支持
|
支持
|
两者都支持扫描行时支持行过滤器
|
客户端脚本执行
|
支持
|
不支持
|
BigTable
使用
Sawzall
使客户端可以处理存储的数据。
|
MapReduce
支持
|
支持
|
支持
|
两者都有方便的工具类让
MapReduce Job
扫描
表。
|
底层文件系统
|
GFS
|
HDFS,S3,
S3N, EBS
|
BigTable
工作在
GFS
之上,
HBase
可以使用任何文件系统,只要有该文件系统的代理或者驱动即可。
|
存储文件格式
|
SSTable
|
HFile
|
|
块索引
|
在文件最后
|
在文件最后
|
两者都有相似的块结构化的存储文件格式,并且块索引
被放在文件的最后
|
内存映射
|
支持
|
不支持
|
BigTable
可以让存储文件直接映射到内存。
|
锁服务
|
Chubby
|
ZooKeeper
|
ZooKeeper
被
HBase
用来协调任务并非当成锁服务。总体说来,
HBase
使用
ZooKeeper
达到了
BigTable
使用
Chubby
的效果,只有语义有点细微区别。
|
单个
Master
|
是
|
不是
|
HBase
近来支持多个
Master
。多个
Master
是”热”待命模式工作,它们都侦听
ZooKeeper
上的
Master
节点。
|
Tablet/Region
数目
|
10-1000
|
10-1000
|
两个系统都推荐每个
Region server
分配相同数目的
region
。当然这决定于很多因素,由于两个系统都使用普通电脑,出于负载考虑,它们推荐相同的数目
|
Tablet/Region
大小
|
100-200MB
|
256MB
|
在两个系统中,单个
Region
大小是可配置的,在
HBase
中,默认大小为
256MB
|
Root
位置
|
1st META /
Chubby
|
-ROOT- /
ZooKeeper
|
HBase
会使用一个只有单个
Region
的自身表来存储
Root
表。二者启动时都会把
Root region
所在机器的
地址放到
ZooKeeper
或者
Chubby
中。
|
客户端
Region
信息缓存
|
支持
|
不支持
|
二者客户端都支持
Region
位置信息缓存并且有相应的机制去除
过时的缓存和更新缓存
|
Meta
预读
|
支持
|
不支持(?)
|
BigTable
的一个设计就是会预读超过
1
个
Meta Region
信息并将之放入客户端缓存。
|
Region
事件记录
|
支持
|
支持
|
Region
相关事件(切分,分配,再分配)都会记录在
Meta
表中
|
存储位置分组(
Locality Groups
)
|
支持
|
不支持
|
这不是很确定,但是看起来
BigTable
中的任何东西都有
个位置分组的属相。如果多个列族的位置分组相同,那么它们将被存放在一起,并且拥有相同的配置参数。单个列族就可能是一个拥有一个成员的位置分组。
HBase
不支持这种选项,并将不同的列族分开存储。
|
完全内存
Column Family
存储
|
支持
|
支持
|
这是为需要高速存取小表准备的
|
KeyValue
缓存
|
支持
|
不支持
|
缓存热点
Cell
数据
|
数据块缓存
|
支持
|
支持
|
数据块从存储文件读入到在可配置的缓存中
|
布隆过滤器
(Bloom Filters)
|
支持
|
支持
|
这些过滤器会消耗一些内存,但是可以快速检查一个指定的
cell
是否在一个
Region Server
上存在
|
Write-Ahead
Log (WAL)
|
支持
|
支持
|
每个
Region Server
都会记录被它管理的所有
Region
上的数据改动
|
Secondary
Log
|
支持
|
不支持
|
出于性能考虑,一旦
WAL
性能下降,
BigTable
还有别的
log
可以使用
|
忽略
Write-Ahead Log
|
?
|
支持
|
在大量数据导入时,
HBase
的客户端可以选择忽略
WAL
|
快速
Region
切分
|
支持
|
支持
|
切分
region
是快速的,因为切分出来的子
region
暂时还会去读取原存储文件直到一个
compaction
将数据写入
region
的自有的存储文件
|
BigTable 新特性
OSDI’06
BigTable论文发表已有几年,BigTable当然也有改进。杰夫.迪恩—一个在Google的家伙在近来的一些演讲和演示中提到了
BigTable的新特性。我们就来瞧瞧部分新特性吧。
特性
|
BigTable
|
HBase
|
说明
|
客户端隔离
|
支持
|
不支持
|
BigTable
可以内在地被用来服务很多单独的客户端,并且使它们的数据隔离不互相影响
|
协同处理(
Coprocessors
)
|
支持
|
暂不支持
|
BigTable
在
region
中运行的代码可以随着
region
的被切分,代码也被会切分到新的
region
上运行。
|
数据错误安全
|
支持
|
不支持
|
BigTable
使用
CRC
校验码确认数据是否被安全写入。
HBase
没有这个特性,问题是:
Hadoop
是否会包含这个特性?
|
数据中心间数据复制
|
支持
|
暂不支持
|
HBase
的一个
issue
:
HBASE-1295
就是关于这个特性的。
|
变化和差异
上面讨论的一些特性比较可以看出有些特性差异并不是可以简单归结为”是或否”类的问题,对这类问题我将在下面单独探讨。
锁服务
下面的来自BigTable论文
BigTable用Chubby来完成一些不同的任务:保证在任何时候只有一个活动的Master;存储BigTable引导区地址;发现tablet server以及在table server死亡时做善后工作;存储BigTable的schema信息(每个表的列族信息);存储访问控制列表。如果Chubby在一段较长的时候变得不可用,那么BigTable系统就会变得不可用。
BigTable如何使用Chubby跟HBase如何使用ZooKeeper有很多异曲同工之处。但有一个区别就是:HBase并不把
Schema信息存储在ZooKeeper中。它们都非常依赖锁服务的正常运作。根据我自身的经验以及我阅读HBase邮件列表所得到的,我们经常低估当
ZooKeeper无法取得足够的资源去作出实时回应时的后果。宁可让ZooKeeper集群运行在相对较老旧的但是什么别的事都不干的机器上,而不是运
行在已被Hadoop或者HBase进程搞得不堪重负的机器上。一旦你的ZooKeeper没有足够的资源提供服务,就会引发多米诺骨式的效
应,HBase将会挂掉—包括master节点。
更新:在跟ZooKeeper开发小组讨论后,我想指出的是这并不真正意义上是ZooKeeper的一个问题。因为如果运行ZooKeeper的机
器负荷很重,那么存取ZooKeeper上的资源很可能会超时。在这种情形下,HBase的Region
Server甚至Master可能会认为协调服务已经坏了,它们就会让自己停工关闭。
帕特里克
.
亨特已经
通过邮件和发帖对此作出回应。你可以读他的邮件或者帖子,然后检查自己的
ZooKeeper
是否有能力处理负荷。我个人建议是
将
ZooKeeper
集群跟
HBase
集群分开。你可以把
ZooKeeper
集群运行在一组空闲的稍微有点过时
但是性能还相当不错的机器上。这样你可以单独监控
ZooKeeper
集群和
HBase
集群中的机器,而不必有以下的烦恼:当一个机器的
CPU
负荷
100%
的
时候,你搞不清楚这个负荷究竟来自哪个进程或者有什么后果。
另外一个重要区别是:
ZooKeeper
并不是一个像
Chubby
一样的锁服务系统,但是目前为止,这并不是
HBase
所
关心的。
ZooKeeer
提供一个分布式的协调服务,让
HBase
可以选举出
Master
节
点。它也可以提供用以表示状态或者某个动作需要的信号量。当
Chubby
生成一个锁文件来表示一个
tablet
活动的,与此相对应的一个
Region server
会在
ZooKeeper
中生成一个节点来表示自己的存在。这个节点创建以后,只要
ZooKeeper
不挂,它会一直存在。在
BigTable
中,当一个
tablet
server
的锁文件被删除时就表示与这个
tablet server
的租约失效。在
HBase
中,因为
ZooKeeper
相对少点限制的架构,这种行为会被处理得有所不同。它们只是语义上有所差别,并不意味着谁优谁劣,仅仅有所不同而已。
在Chubby中,第一层级的文件包含着根tablet的位置信息。根tablet包含着一个特别的名叫METADATA(元数据)表的所有的tablet的位置信息。每个METADATA的tablet包含着一组用户表的tablet的位置信息。根tablet仅仅是METADATA表中第一个tablet,但是它被特别的看待—它从不会被切分,这是为了保证tablet的位置层级不会超过3层。
就如上面所说的,在HBase中,根region是一个只有单个region的表。要说有什么区别的话,那就是根region并不是meta表中的第一个
不可切分的region。它们是相同的功能,只是实现上有差别。
METADATA表存储着tablet的位置信息,跟在起始row key和末尾row key以及表名之后。
HBase的做法有点不同,它也会为每个region存储起始的row key和末尾row key,但是末尾的row
key并不是属于当前的region的,它会是另一个region的起始row key.
Master的行为
为了侦测一个tablet server是否不再为它的tablets服务,master会定期地查看每个tablet server锁文件的状态。当一个tablet server报告它丢失了锁文件,或者master经过几次尝试后未能联系上tablet server, master就会尝试在tablet server的锁文件上获得独占锁。如果master可以获得这个锁,还有Chubby是良好工作的,这时如果tablet server已经死亡或者已经把错误上报给Chubby,这时master就可以确定该tablet server不可能恢复,于是会删除它的锁文件。一旦一个tablet server的锁文件被删除,本来被该tablet server服务的tablets会被移到没被分配的tablets集合中去。为了保证master和Chubby之间网络畅通,只要master的Chubby session过期,master将会自杀。
直到0.20.2版本,HBase的行为都相当不同。Region
server利用heartbeat协议给master定期报告,master接到报告就知道region server还活着。
Master启动
Master启动有以下步骤:(1)Master从Chubby中获取唯一的master锁,用来防止多个master的初始化(2)Master 扫描Chubby中的server目录找到活动的server.(3) Master跟多个活动的tablet server通讯,收集tablets的分配情况(4)Master扫描METADATA表得知所有的tablets集合。(4)Master如果发现有tablet并没有分配到tablet server,它会将之放入未被分配tablets集合,这样这个tablet就会被认为是可以被分配的。
就如我上面提到的,HBase实际上会等待所有的region server上报它负责的region情况。当然,它也会扫描.META.
表去了解有哪些region以及它们是分配到哪些region server上了。
ZooKeeper仅仅用来发布-ROOT- region所在的region server的地址。
Tablet/Region切分
在切分通知被丢失时(因为tablet server挂了或者master挂了)的情况下,当master要求tablet server装载被切分的那个tablet时,master会发现新的tablet. Tablet server会将此次切分通知master,因为它会发现在METADATA中找到的tablet只是master要求它装载的tablet的一部分。
Master节点会单独利用.META.表去发现一个region去切分,但是切分事件消息被丢失的情况。Master会按往常一样扫描.META.去发
现,哪些region并没有被分配。一旦发现没有被分配的region,master会用默认的策略将之分配到一个region server上。
压紧(Compaction)
随着写动作的执行,内存表的大小会不断增长。当内存表的容量到达一个临界点时,内存表将被冻结,一个新的内存表将会被创建,被冻结的内存表将被会转换成SSTable并被写入到GFS中。这种minor compaction操作有2个目的:1降低tablet server的内存用量,2当一个tablet server死而复生从commit log读取数据时,减少数据总量。当压紧动作发生时,认可继续执行读写操作。
HBase也有相应的操作,不过被命名为”flush”。对应BigTable的”minor
compaction”,HBase会把最近生成的很多较小的存储文件重写为一个包含较多数据的大文件。
…我们将限制此类文件的数目,方式是定期地在后台执行合并压紧操作。合并压紧操作就是读取几个SSTable和内存表的内容,然后写到一个新的SSTable中去。一旦合并压紧操作完成,老的SSTable和内存表就将可被丢弃。
这个动作跟HBase中的”minor compaction”差不多。
读取所有的SSTable,重新写成一个SSTable的合并压紧操作被称为是major compaction
相应的在HBase中,一个major compaction就是把所有的存储文件(HFile)重写成一个新的文件。
文件不可修改
要知道文件一旦被写入将不能修改,BigTable有如下的假定:
唯一可以被修改的数据结构就是读写都可以的内存表(memtable)。为了避免同时读写内存表的冲突,我们在写内存表的数据行的时候,会先复制一个副本,这样读写就可以并行处理了。
我相信HBase中的做法跟此类似,但不是很确定。可以确定是,根据HDFS的架构,文件一旦被写入就是不能被修改的。
我唯一的建议就是你自己去阅读BigTable的相关资料以形成自己的见解。这篇帖子的灵感来自一个念头:BigTable究竟实现了哪些特
性,HBase涵盖了BigTable的哪些特性?写这片帖子的困难毫无疑问是我们对BigTable的细节所知不多。但是关于它的论文数量–即便是
2006年的论文列表都给人留下难以磨灭的印象。HBase作为一个开源项目,而且项目的贡献者是为数不多的有着全职工作的人,现在虽不能说跟
BigTable相提并论,但怎么说都我都认为现在的成果是一个巨大的成就。看看0.21和0.22的路线图,将来它们之间不大的差距将会变得更加缩小。
分享到:
相关推荐
HBase与Google的BigTable都是分布式列式存储系统,常用于处理大规模数据。HBase是BigTable的开源实现,尽管两者在架构上有许多相似之处,但它们在具体实现和特性上仍存在一些差异。 首先,HBase和BigTable都支持行...
持久化(persistent):与普通的编程语言中的映射不同,HBase和BigTable是持久化的。这意味着数据被存储在磁盘上,并且能够长期存在,即使在系统崩溃后。 分布式(distributed):HBase和BigTable都是分布式的,意味着...
【标题】:理解HBase与BigTable 【描述】:本文旨在从概念层面解析HBase(Google BigTable的开源实现)及其数据存储系统的本质,帮助读者理解何时选择HBase,何时选择传统数据库。 【标签】:HBase 【正文】: ...
主要是自己大学时候的毕业设计,关于Hbase下用聚类算法写的一个搜索工具,实现了将文本存入数据库,然后进行搜索的算法。其中包括了word毕业设计文档,还有答辩的ppt,还有在linux平台下的java源码,希望对这方面有...
hbase是bigtable的开源山寨版本。是建立的hdfs之上,提供高可靠性、高性能、列存储、可伸缩、实时读写的数据库系统。 它介于nosql和RDBMS之间,仅能通过主键(row key)和主键的range来检索数据,仅支持单行事务(可...
orcus是一个与HBase / Bigtable交互的库,该库在 / 之上构建,用于连接到HBase / Bigtable实例。 另外,它具有自动将结果对象派生到任意类型对象的功能。 如何使用它 HBase的 libraryDependencies + = Seq ( " ...
23、本题考查对象身份比较操作符和内建函数的使用,需要对对象的比较和类型判断进行理解。这表明需要具备编程语言的基本知识。 24、本题考查队列的实现和消费顺序,需要对队列的实现机制进行理解。这表明需要具备...
HBase的设计灵感来源于Google的Bigtable,但它是开源的,允许在普通服务器硬件上构建大规模的结构化存储集群。 HBase的核心特性包括: 1. **高可靠性**:通过分布式存储和冗余机制确保数据的持久性和可用性。 2. **...
HBase是Google Bigtable的开源实现,它在Hadoop文件系统(HDFS)之上构建,提供了高度可扩展性和实时读写能力。HBase的数据模型是非关系型的,数据被组织成表,每行都有一个唯一的行键,列由列族和时间戳定义。这种...
HBase是Google Bigtable的开源实现,类似Google Bigtable利用GFS作为其文件存储系统,HBase利用Hadoop HDFS作为其文件存储系统;Google运行MapReduce来处理Bigtable中的海量数据,HBase同样利用Hadoop MapReduce来...
### HBase 安装与使用知识点详解 #### 概述 HBase 是一款构建于 Hadoop 之上的分布式、可扩展的大规模数据存储系统。它提供了类似 Google BigTable 的功能特性,非常适合处理海量数据和高并发读写需求的应用场景。...
HBase(hbase-2.4.9-bin.tar.gz)是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。就像Bigtable利用了Google文件系统(File System...
HBase借鉴了Google Bigtable的设计理念,但它是开源的,因此可以免费使用并进行社区驱动的开发。 HBase的核心特性包括高可靠性、高性能和可伸缩性。它依赖于Hadoop的HDFS(Hadoop Distributed File System)作为...
- **HBase的概念**:HBase是基于Hadoop的一个分布式、可扩展的列族数据库,它的设计灵感来源于Google的Bigtable论文。 - **HBase的历史**:HBase起源于一个叫做Hadoop的项目中的子项目,最初是为了实现一个类似于...
HBase是一个开源的分布式列式数据库,源自Google Bigtable的设计理念。它被设计用来处理海量数据,尤其是在廉价的PC服务器上构建大规模结构化存储集群。HBase充分利用了Apache Hadoop的HDFS(Hadoop Distributed ...
HBase作为Google发表BigTable论文的开源实现版本,是一种分布式列式存储的数据库,构建在HDFS之上的NoSQL数据库,非常适合大规模实时查询,因此HBase在实时计算领域使用非常广泛。可以实时写HBase,也可以利用...
此外,HBase采用BigTable模型,数据以表的形式组织,每张表被分成多个Region,Region分布在集群的各个节点上,实现负载均衡。 在HBase 2.2.7中,你可以发现以下关键特性: 1. **分布式架构**:HBase通过Hadoop的...
## HBase与BigTable的关系 HBase是对Google BigTable的一种开源实现。BigTable的设计理念是处理大规模的松散数据,这种数据不遵循严格的表关系模型,但又有多个属性,适合互联网应用的高速需求。HBase采用了类似...
本课时将深入探讨Hbase与Hive的比较关系,以及Pig在这两者中的角色。 首先,让我们了解Pig。Pig是一种数据流语言,设计用于处理大规模数据。Pig Latin是Pig的语言,它简化了MapReduce任务的编写。通过Pig,用户可以...