- 浏览: 142588 次
- 性别:
- 来自: 上海
最新评论
-
xueyinv86:
你这个增强版的wordcount是在哪个版本的hadoop上跑 ...
MapReduce入门程序WordCount增强版 -
chenjianjx:
很不错的收集!
几篇关于Hadoop+Hive数据仓库的入门文章 -
canedy:
import org.apache.hadoop.hbase. ...
使用HBase的一个典型例子,涉及了HBase中很多概念 -
天籁の圁:
你的图全部挂了啊
基于Eclipse的Hadoop应用开发环境的配置 -
landyer:
happinesss 写道你是做java开发的吗我是杂货铺,什 ...
MongoDB1.8安装、分布式自动分片(Auto-Sharding)配置备忘
原文地址:http://database.e800.com.cn/articles/2008/320/1205953658379954753_1.html HBase是Hadoop中的一个简单数据库。它与Google的Bigtable特别相似,但也存在许多的不同之处。 数据模型 HBase数据库使用了和Bigtable非常相似的数据模型。用户在表格里存储许多数据行。每个数据行都包括一个可排序的关键字,和任意数目的列。表格是稀疏的,所以同一个表格里的行可能有非常不同的列,只要用户喜欢这样做。 列名是“<族名>:<标签>”形式,其中<族名>和<标签>可以是任意字符串。一个表格的<族名>集合(又叫“列族”集合)是固定的,除非你使用管理员权限来改变表格的列族。不过你可以在任何时候添加新的<标签>。HBase在磁盘上按照列族储存数据,所以一个列族里的所有项应该有相同的读/写方式。 写操作是行锁定的,你不能一次锁定多行。所有对行的写操作默认是原子的。 所有数据库更新操作都有时间戳。HBase对每个数据单元,只存储指定个数的最新版本。客户端可以查询“从某个时刻起的最新数据”,或者一次得到所有的数据版本。 概念模型 从概念上,一个表格是一些行的集合,每行包含一个行关键字(和一个可选的时间戳),和一些可能有数据的列(稀疏)。下面的例子很好的说明了问题: 物理模型 在概念上表格是一个稀疏的行/列矩阵,但是在物理上,它们按照列存储。这是我们的一个重要设计考虑。 上面“概念上的”表格在物理上的存储方式如下所示: 请大家注意,在上面的图中,没有存储空的单元格。所以查询时间戳为t8的“content:”将返回null,同样查询时间戳为t9,“anchor:”值为“my.look.ca”的项也返回null。 不过,如果没有指明时间戳,那么应该返回指定列的最新数据值,并且最新的值在表格里也时最先找到的,因为它们是按照时间排序的。所以,查询“contents:”而不指明时间戳,将返回t6时刻的数据;查询“anchor:”的“my.look.ca”而不指明时间戳,将返回t8时刻的数据。 例子 为了展示数据在磁盘上是怎么存储的,考虑下面的例子: 程序先写了行“[0-9]”,列“anchor:foo”;然后写了行“[0-9]”,列“anchor:bar”;最后又写了行“[0-9]”,列“anchor:foo”。当把memcache刷到磁盘并紧缩存储后,对应的文件可能如下形式: 注意,列“anchor:foo”存储了2次(但是时间戳不同),而且新时间戳排在前面(于是最新的总是最先找到)。 HRegion (Tablet)服务器 对用户来说,一个表格是是一些数据元组的集合,并按照行关键字排序。物理上,表格分为多个HRegion(也就是子表,tablet)。一个子表用它所属的表格名字和“首/尾”关键字对来标识。一个首/尾关键字为和的子表包含[,)范围内的行。整个表格由子表的集合构成,每个子表存储在适当的地方。 物理上所有数据存储在Hadoop的DFS上,由一些子表服务器来提供数据服务,通常一台计算机只运行一个子表服务器程序。一个子表某一时刻只由一个子表服务器管理。 当客户端要进行更新操作的时候,先连接有关的子表服务器,然后向子表提交变更。提交的数据添加到子表的HMemcache和子表服务器的HLog。HMemcache在内存中存储最近的更新,并作为cache服务。HLog是磁盘上的日志文件,记录所有的更新操作。客户端的commit()调用直到更新写入到HLog中后才返回。 提供服务时,子表先查HMemcache。如果没有,再查磁盘上的HStore。子表里的每个列族都对应一个HStore,而一个HStore又包括多个磁盘上的HStoreFile文件。每个HStoreFile都有类似B树的结构,允许快速的查找。 我们定期调用HRegion.flushcache(),把HMemcache的内容写到磁盘上HStore的文件里,这样给每个HStore都增加了一个新的HStoreFile。然后清空HMemcache,再在HLog里加入一个特殊的标记,表示对HMemcache进行了flush。 启动时,每个子表检查最后的flushcache()调用之后是否还有写操作在HLog里未应用。如果没有,那么子表里的所有数据就是磁盘上HStore文件里的数据;如果有,那么子表把HLog里的更新重新应用一遍,写到HMemcache里,然后调用flushcache()。最后子表会删除HLog并开始数据服务。 所以,调用flushcache()越少,工作量就越少,而HMemcache就要占用越多的内存空间,启动时HLog也需要越多的时间来恢复数据。如果调用flushcache()越频繁,HMemcache占用内存越少,HLog恢复数据时也越快,不过flushcache()的消耗费也需要考虑。 flushcache()调用会给每个HStore增加一个HStoreFile。从一个HStore里读取数据可能要访问它的所有HStoreFile。这是很耗时的,所以我们需要定时把多个HStoreFile合并成为一个HStoreFile,通过调用HStore.compact()来实现。 Google的Bigtable论文对主要紧缩和次要紧缩描述有些模糊,我们只注意到2件事: 1.一次flushcache()把所有的更新从内存写到磁盘里。通过flushcache(),我们把启动时的日志重建时间缩短到0。每次flushcache()都给每个HStore增加一个HStoreFile文件。 2.一次compact()把所有的HStoreFile变成一个。 和Bigtable不同的是,Hadoop的HBase可以把更新“提交”和“写入日志”的时间周期缩短为0(即“提交”就一定写到了日志里)。这并不难实现,只要它确实需要。 我们可以调用HRegion.closeAndMerge()把2个子表合并成一个。当前版本里2个子表都要处于“下线”状态来进行合并。 当一个子表大到超过了某个指定值,子表服务器就需要调用HRegion.closeAndSplit(),把它分割成2个新的子表。新子表上报给master,由master决定哪个子表服务器接管哪个子表。分割过程非常快,主要原因是新的子表只维护了到旧子表的HStoreFile的引用,一个引用HStoreFile的前半部分,另一个引用后半部分。当引用建立好了,旧子表标记为“下线”并继续存留,直到新子表的紧缩操作把对旧子表的引用全部清除掉时,旧子表才被删除。 总结: 1.客户端访问表格里的数据。 2.表格分成许多子表。 3.子表由子表服务器维护,客户端连接子表服务器来访问某子表关键字范围内的行数据。 4.子表又包括: A.HMemcache,存储最近更新的内存缓冲 B.HLog,存储最近更新的日志 C.HStore,一群高效的磁盘文件。每个列族一个HStore。 HBase的Master服务器 每个子表服务器都维持与唯一主服务器的联系。主服务器告诉每个子表服务器应该装载哪些子表并进行服务。 主服务器维护子表服务器在任何时刻的活跃标记。如果主服务器和子表服务器间的连接超时了,那么: A. 子表服务器“杀死”自己,并以一个空白状态重启。 B. 主服务器假定子表服务器已经“死”了,并把它的子表分配给其他子表服务器。 注意到这和Google的Bigtable不同,他们的子表服务器即使和主服务器的连接断掉了,还可以继续服务。我们必须把子表服务器和主服务器“绑”在一起,因为我们没有Bigtable那样的额外锁管理系统。在Bigtable里,主服务器负责分配子表,锁管理器(Chubby)保证子表服务器原子的访问子表。HBase只使用了一个核心来管理所有子表服务器:主服务器。 Bigtable这样做并没有什么问题。它们都依赖于一个核心的网络结构(HMaster或Chubby),只要核心还在运行,整个系统就能运行。也许Chubby还有些特殊的优点,不过这超过了HBase现在的目标范围。 当子表服务器向一个新的主服务器“报到”时,主服务器让每个子表服务器装载0个或几个子表。当子表服务器死掉了,主服务器把这些子表标记为“未分配”,然后尝试给别的子表服务器。 每个子表都用它所属的表格名字和关键字范围来标识。既然关键字范围是连续的,而且最开始和最后的关键字都是NULL,这样关键字范围只用首关键字来标识就够了。 不过情况并没这么简单。因为有merge()和split(),我们可能(暂时)会有2个完全不同的子表是同一个名字。如果系统在这个不幸的时刻挂掉了,2个子表可能同时存在于磁盘上,那么判定哪个子表“正确”的仲裁者就是元数据信息。为了区分同一个子表的不同版本,我们还给子表名字加上了唯一的region Id。 这样,我们的子表标识符最终的形式就是:表名+首关键字+region Id。下面是一个例子,表名字是hbaserepository,首关键字是w-nk5YNZ8TBb2uWFIRJo7V==,region Id是6890601455914043877,于是它的唯一标识符就是: 元数据表 我们也可以使用这种标识符作为不同子表的行标签。于是,子表的元数据就存储在另一个子表里。我们称这个映射子表标识符到物理子表服务器位置的表格为元数据表。 元数据表可能增长,并且可以分裂成多个子表。为了定位元数据表的各个部分,我们把所有元数据子表的元数据保存在根子表(ROOT table)里。根子表总是一个子表。 在启动时,主服务器立即扫描根子表(因为只有一个根子表,所以它的名字是硬编码的)。这样可能需要等待根子表分配到某个子表服务器上。 一旦根子表可用了,主服务器扫描它得到所有的元数据子表位置,然后主服务器扫描元数据表。同样,主服务器可能要等待所有的元数据子表都被分配到子表服务器上。 最后,当主服务器扫描完了元数据子表,它就知道了所有子表的位置,然后把这些子表分配到子表服务器上去。 主服务器在内存里维护当前可用的子表服务器集合。没有必要在磁盘上保存这些信息,因为主服务器挂掉了,整个系统也就挂掉了。 Bigtable与此不同,它在Google的分布式锁服务器Chubby里储存“子表”到“子表服务器”的映射信息。但我们把这些信息存储到元数据表里,因为Hadoop里没有等价Chubby的东西。 这样,元数据和根子表的每行“info:”列族包含3个成员: 1.Info:regioninfo包含一个序列化的HRegionInfo对象。 2.Info:server包含一个序列化的HServerAddress.toString()输出字符串。这个字符串可以用于HServerAddress的构造函数。 3.Info:startcode是一个序列化的long整数,由子表服务器启动的时候生成。子表服务器把这个整数发送给主服务器,主服务器判断元数据和根子表里的信息是否过时了。 所以,客户端只要知道了根子表的位置,就不用连接主服务器了。主服务器的负载相对很小:它处理超时的子表服务器,启动时扫描根子表和元数据子表,和提供根子表的位置(还有各个子表服务器间的负载均衡)。 HBase的客户端则相当复杂,并且经常需要结合根子表和元数据子表来满足用户扫描某个表格的需求。如果某个子表服务器挂了,或者本来应该在它上面的子表不见了,客户端只能等待和重试。在启动的时候,或最近有子表服务器挂掉的时候,子表到子表服务器的映射信息很可能不正确。 结论: 1.子表服务器提供对子表的访问,一个子表只由一个子表服务器管理。 2.子表服务器需要向主服务器“报到”。 3.如果主服务器挂了,整个系统就挂了。 4.只有主服务器知道当前的子表服务器集合。 5.子表到子表服务器的映射存储在2种特殊的子表里,它们和其他子表一样被分配到子表服务器上。 6.根子表是特殊的,主服务器总是知道它的位置。 7.整合这些东西是客户端的任务。
row=row0, column=anchor:bar, timestamp=1174184619081
row=row0, column=anchor:foo, timestamp=1174184620720
row=row0, column=anchor:foo, timestamp=1174184617161
row=row1, column=anchor:bar, timestamp=1174184619081
row=row1, column=anchor:foo, timestamp=1174184620721
row=row1, column=anchor:foo, timestamp=1174184617167
row=row2, column=anchor:bar, timestamp=1174184619081
row=row2, column=anchor:foo, timestamp=1174184620724
row=row2, column=anchor:foo, timestamp=1174184617167
row=row3, column=anchor:bar, timestamp=1174184619081
row=row3, column=anchor:foo, timestamp=1174184620724
row=row3, column=anchor:foo, timestamp=1174184617168
row=row4, column=anchor:bar, timestamp=1174184619081
row=row4, column=anchor:foo, timestamp=1174184620724
row=row4, column=anchor:foo, timestamp=1174184617168
row=row5, column=anchor:bar, timestamp=1174184619082
row=row5, column=anchor:foo, timestamp=1174184620725
row=row5, column=anchor:foo, timestamp=1174184617168
row=row6, column=anchor:bar, timestamp=1174184619082
row=row6, column=anchor:foo, timestamp=1174184620725
row=row6, column=anchor:foo, timestamp=1174184617168
row=row7, column=anchor:bar, timestamp=1174184619082
row=row7, column=anchor:foo, timestamp=1174184620725
row=row7, column=anchor:foo, timestamp=1174184617168
row=row8, column=anchor:bar, timestamp=1174184619082
row=row8, column=anchor:foo, timestamp=1174184620725
row=row8, column=anchor:foo, timestamp=1174184617169
row=row9, column=anchor:bar, timestamp=1174184619083
row=row9, column=anchor:foo, timestamp=1174184620725
row=row9, column=anchor:foo, timestamp=1174184617169
hbaserepository, w-nk5YNZ8TBb2uWFIRJo7V==,6890601455914043877
发表评论
-
thrift安装资料集合
2011-06-22 14:19 1148http://www.buywine168.com/index ... -
在Ubuntu下编译安装Thrift(支持php和c++)
2011-06-22 14:16 1659原文地址:http://www.coder4.com/arch ... -
HBase Thrift 0.5.0 + PHP 5 安裝設定
2011-06-22 14:13 1879原文地址: http://blog.kfchph.com ... -
Hadoop+hbase+thrift H.H.T环境部署
2011-06-21 12:58 1107原文地址:http://blog.sina.com.cn/s/ ... -
php操作hbase例子
2011-06-21 10:59 23311 $GLOBALS['THRIFT_ROOT'] = '/h ... -
HBase技术介绍
2011-06-21 10:54 1098原文地址:http://www.searc ... -
hive sql语法解读
2011-06-08 16:52 1360版权声明:转载时请以超链接形式标明文章原始出处和作者信息及 ... -
Hive 的启动方式
2011-06-08 16:49 2514Hive 的启动方式 hive 命令行 ... -
Hive环境搭建与入门
2011-06-08 16:47 1535原文地址:http://www.jiacheo.org ... -
Hbase入门6 -白话MySQL(RDBMS)与HBase之间
2011-06-08 15:38 1570作者: H.E. | 您可以转载, ... -
Apache Hive入门3–Hive与HBase的整合
2011-06-08 10:03 1575作者: H.E. | 您可以转载, ... -
Apache Hive入门2
2011-06-08 10:00 1353我的偏见: 对于互联 ... -
Apache Hive入门1
2011-06-08 09:59 2551作者: H.E. | 您可以转载, ... -
hbase分布安装部署
2011-06-07 22:37 18171、 hbase安装部署#cd /hadoop# ... -
使用HBase的一个典型例子,涉及了HBase中很多概念
2011-06-07 15:38 1596一个使用HBase的例子,如下。 import java ... -
HBase入门篇4–存储
2011-06-06 21:22 1599作者: H.E. | 您可以转载, 但必须以超链接形式标明文章 ... -
HBase入门篇3
2011-06-06 21:21 1859作者: H.E. | 您可以转载, 但必须以超链接形式标明文章 ... -
HBase入门篇2-Java操作HBase例子
2011-06-06 21:18 2408作者: H.E. | 您可以转载, 但必须以超链接形式标明文章 ... -
HBase入门篇
2011-06-06 21:17 2398作者: H.E. | 您可以转载, ... -
Hive 和数据库的异同
2011-06-06 14:08 926原文地址:http://www.oschina.net ...
相关推荐
HBase是基于Google的Bigtable设计的一款开源、分布式的、版本化的非关系型数据库(NoSQL数据库),它运行在Hadoop之上,主要用于处理海量结构化数据。HBase提供高吞吐量的数据读写能力,尤其适合于大规模、稀疏的...
标题中的“intel-Hadoop.rar_hadoop_hbase”表明这是一个关于Intel优化过的Hadoop发行版,其中包含了对HBase的深入探讨。Hadoop是分布式计算框架,而HBase是基于Hadoop的数据存储系统,两者在大数据处理领域都有着...
在大数据领域,分布式数据库HBase是处理海量结构化半结构化数据的重要工具,尤其是在与Hadoop结合使用时,能够提供高效、可扩展的数据存储和查询能力。本文将详细讲解如何在Hadoop环境中安装HBase以及如何使用Java ...
本文将围绕“Hadoop分布式搭建配置/Hive/HBase”这一主题,深入探讨Hadoop生态系统中的关键组件,并结合提供的书籍资源进行讲解。 首先,Hadoop是一个开源的分布式计算框架,它允许在大规模集群上处理和存储大量...
【标题】"Hadoop之HBase学习笔记"主要聚焦于Hadoop生态中的分布式数据库HBase。HBase是一个基于Google Bigtable理念设计的开源NoSQL数据库,它运行在Hadoop之上,提供高性能、高可靠性以及可水平扩展的数据存储能力...
阿里云专有云企业版V3.8.1云数据库HBase版是一款专为企业设计的分布式非关系型数据库服务,它基于Apache HBase并结合了阿里云的技术优势,为企业提供了大规模、高并发、低延迟的数据存储和处理能力。HBase是为处理...
【模块6:分布式数据库HBase】是一门专为教师培训设计的大数据基础入门课程,涵盖了HBase的核心概念、访问方式、数据模型、实现原理、运行机制以及实际应用和编程实践。以下是详细的讲解: **4.1 概述** 在本模块的...
【大数据技术原理与应用-第四章-分布式数据库HBase(2016年1月28日版本)】 本章主要介绍了分布式数据库HBase的相关知识,包括其起源、概念、特性以及与传统关系数据库的差异。HBase是Google BigTable的开源实现,...
这个“Hadoop学习笔记”涵盖了Hadoop生态系统中的核心组件,包括HDFS(Hadoop分布式文件系统)、HBase(一个分布式、列式存储的数据库)、Hive(数据仓库工具)以及Spark(一个快速、通用且可扩展的数据处理引擎)。...
HBase是Apache Hadoop生态系统中的一个分布式、面向列的NoSQL数据库,主要用于处理大规模的数据存储。这个压缩包文件“hbase所需要的包”包含了运行和管理HBase系统所必需的组件和依赖。以下将详细讲解HBase的核心...
在IT行业中,尤其是在大数据处理领域,HBase是一个广泛使用的分布式、高性能、列式存储的NoSQL数据库。HBase是建立在Hadoop文件系统(HDFS)之上,为处理大规模数据提供了一个高效的数据存储解决方案。而Spring Data...
本资源为"完整版大数据课件集合4-大数据导论-第四章-分布式数据库HBase(共71页).rar",它是一个压缩包文件,包含了71页关于大数据导论课程中第四章——分布式数据库HBase的详细讲解。HBase是大数据领域中的一个...
这三本书的结合,为读者提供了一个全面学习Hadoop和HBase的平台。从基础的Hadoop概念,到HBase的深入理解和实战应用,读者可以逐步掌握大数据处理的关键技术和工具。无论你是初学者还是经验丰富的开发者,都能从中...
HBase 是一个分布式的、基于列族的NoSQL数据库,它是Apache软件基金会的顶级项目,设计用于处理海量数据。HBase构建在Hadoop之上,旨在为非结构化或半结构化数据提供高吞吐量的随机读写能力,特别适合大规模大数据...
在本课程中,我们将深入探讨大数据云计算领域中的一个重要组件——Hadoop,以及它与HBase的关系。Hadoop是Apache软件基金会开发的一个开源框架,主要用于处理和存储海量数据。HBase,作为Hadoop生态系统的一部分,是...
Hbase是一个分布式的、面向列的数据库,常用于大数据存储,是Apache Hadoop生态系统的一部分。以下是一步步的安装和配置步骤: 1. **下载Hbase**: 首先,你需要访问清华大学的开源软件镜像站点,找到Hbase的最新...
HBase,全称为Hadoop Base,是一个基于Google Bigtable设计的开源非关系型数据库,运行在Hadoop之上。它是NoSQL数据库的一种,特别适合处理大规模、稀疏的数据。HBase提供了实时读写、强一致性的能力,支持水平扩展...
HBase是基于Hadoop的数据存储系统,是一个非关系型数据库(NoSQL)。它适合存储半结构化或非结构化的数据,如日志、传感器数据等。HBase提供实时读写操作,支持列族(Column Family)的概念,允许用户根据需要快速...
HBase是Apache Hadoop项目的子项目,它是一个分布式的、面向列的开源数据库。它采用了Google的Bigtable论文中提到的数据模型,并且与Hadoop的HDFS文件系统紧密集成,适合存储大量非结构化数据。 HBase的历史可以...