来源:http://www.yankay.com/wp-content/hbase/book.html
HBase官方文档
Copyright © 2010 Apache Software Foundation,盛大游戏-数据仓库团队-颜开(译)
Revision 0.90.4 | |
配置,数据模型使用入门 |
Abstract
这是Apache HBase的官方文档, Hbase是一个分布式,版本化(versioned),构建在Apache Hadoop和Apache ZooKeeper上的列数据库.
我(译者)熟悉Hbase的源代码,从事Hbase的开发运维工作,如果有什么地方不清楚,欢迎一起讨论。邮箱yankaycom@gmail.com
Table of Contents
hbase-site.xml
和hbase-default.xml
hbase-env.sh
log4j.properties
zookeeper.session.timeout
hbase.regionserver.handler.count
irbrc
hbase.regionserver.blockCacheCount
hbase.regionserver.blockCacheFree
hbase.regionserver.blockCacheHitRatio
hbase.regionserver.blockCacheSize
hbase.regionserver.compactionQueueSize
hbase.regionserver.fsReadLatency_avg_time
hbase.regionserver.fsReadLatency_num_ops
hbase.regionserver.fsSyncLatency_avg_time
hbase.regionserver.fsSyncLatency_num_ops
hbase.regionserver.fsWriteLatency_avg_time
hbase.regionserver.fsWriteLatency_num_ops
hbase.regionserver.memstoreSizeMB
hbase.regionserver.regions
hbase.regionserver.requests
hbase.regionserver.storeFileIndexSizeMB
hbase.regionserver.stores
hbase.regionserver.storeFiles
hbase.regionserver.handler.count
hfile.block.cache.size
hbase.regionserver.global.memstore.upperLimit
hbase.regionserver.global.memstore.lowerLimit
hbase.hstore.blockingStoreFiles
hbase.hregion.memstore.block.multiplier
HColumnDescriptor
配置io.hfile.bloom.enabled
全局关闭开关io.hfile.bloom.error.rate
io.hfile.bloom.max.fold
StoreFile
中的BloomFilter,FileInfo
数据结构StoreFile
元数据中的BloomFilter entriesHLog
工具hbase.regionserver.codecs
这本书是HBase的官方指南。 版本为0.90.4.可以在Hbase官网上找到它。也可以在javadoc,JIRA和wiki找到更多的资料。
此书正在编辑中。 可以向 HBase 官方提供补丁JIRA.
这个版本系译者水平限制,没有理解清楚或不需要翻译的地方保留英文原文。
最前面的话
若这是你第一次踏入分布式计算的精彩世界,你会感到这是一个有趣的年代。分布式计算是很难的,做一个分布式系统需要很多软硬件和网络的技能。你的集群可以会因为各式各样的错误发生故障。比如Hbase本身的Bug,错误的配置(包括操作系统),硬件的故障(网卡和磁盘甚至内存) 如果你一直在写单机程序的话,你需要重新开始学习。这里就是一个好的起点:分布式计算的谬论.
Table of Contents
Section1.2, “快速开始”会介绍如何运行一个单机版的Hbase.他运行在本地磁盘上。Section1.3, “慢速开始(相对快速开始)”会介绍如何运行一个分布式的Hbase。他运行在HDFS上
本指南介绍了在单机安装Hbase的方法。会引导你通过shell创建一个表,插入一行,然后删除它,最后停止Hbase。只要10分钟就可以完成以下的操作。
选择一个Apache 下载镜像,下载HBase Releases. 点击stable
目录,然后下载后缀为.tar.gz
的文件; 例如hbase-0.90.4.tar.gz
.
解压缩,然后进入到那个要解压的目录.
$ tar xfz hbase-0.90.4.tar.gz $ cd hbase-0.90.4
现在你已经可以启动Hbase了。但是你可能需要先编辑conf/hbase-site.xml
去配置hbase.rootdir
,来选择Hbase将数据写到哪个目录 .
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>hbase.rootdir</name> <value>file:///DIRECTORY/hbase</value> </property> </configuration>
将DIRECTORY
替换成你期望写文件的目录. 默认hbase.rootdir
是指向/tmp/hbase-${user.name}
,也就说你会在重启后丢失数据(重启的时候操作系统会清理/tmp
目录)
现在启动Hbase:
$ ./bin/start-hbase.sh starting Master, logging to logs/hbase-user-master-example.org.out
现在你运行的是单机模式的Hbaes。所以的服务都运行在一个JVM上,包括Hbase和Zookeeper。Hbase的日志放在logs
目录,当你启动出问题的时候,可以检查这个日志。
是否安装了java?
你需要确认安装了Oracle的1.6 版本的java.如果你在命令行键入java有反应说明你安装了Java。如果没有装,你需要先安装,然后编辑conf/hbase-env.sh
,将其中的JAVA_HOME
指向到你Java的安装目录。
用shell连接你的Hbase
$ ./bin/hbase shell HBase Shell; enter 'help<RETURN>' for list of supported commands. Type "exit<RETURN>" to leave the HBase Shell Version: 0.90.0, r1001068, Fri Sep 24 13:55:42 PDT 2010 hbase(main):001:0>
输入help然后<RETURN>可以看到一列shell命令。这里的帮助很详细,要注意的是表名,行和列需要加引号。
创建一个名为test
的表,这个表只有一个 column family 为cf
。可以列出所有的表来检查创建情况,然后插入些值。
hbase(main):003:0> create 'test', 'cf' 0 row(s) in 1.2200 seconds hbase(main):003:0> list 'table' test 1 row(s) in 0.0550 seconds hbase(main):004:0> put 'test', 'row1', 'cf:a', 'value1' 0 row(s) in 0.0560 seconds hbase(main):005:0> put 'test', 'row2', 'cf:b', 'value2' 0 row(s) in 0.0370 seconds hbase(main):006:0> put 'test', 'row3', 'cf:c', 'value3' 0 row(s) in 0.0450 seconds
以上我们分别插入了3行。第一个行key为row1
, 列为cf:a
, 值是value1
。Hbase中的列是由 column family前缀和列的名字组成的,以冒号间隔。例如这一行的列名就是a
.
检查插入情况.
Scan这个表,操作如下
hbase(main):007:0> scan 'test' ROW COLUMN+CELL row1 column=cf:a, timestamp=1288380727188, value=value1 row2 column=cf:b, timestamp=1288380738440, value=value2 row3 column=cf:c, timestamp=1288380747365, value=value3 3 row(s) in 0.0590 seconds
Get一行,操作如下
hbase(main):008:0> get 'test', 'row1' COLUMN CELL cf:a timestamp=1288380727188, value=value1 1 row(s) in 0.0400 seconds
disable 再 drop 这张表,可以清除你刚刚的操作
hbase(main):012:0> disable 'test' 0 row(s) in 1.0930 seconds hbase(main):013:0> drop 'test' 0 row(s) in 0.0770 seconds
关闭shell
hbase(main):014:0> exit
以上步骤仅仅适用于实验和测试。接下来你可以看Section1.3, “慢速开始(相对快速开始)”,我们会介绍不同的Hbase运行模式,运行分布式Hbase中需要的软件 和如何配置。
Hbase有如下需要,请仔细阅读本章节以确保所有的需要都被满足。如果需求没有能满足,就有可能遇到莫名其妙的错误甚至丢失数据。
和Hadoop一样,Hbase需要Oracle版本的Java6.除了那个有问题的u18版本其他的都可以用,最好用最新的。
1.3.1.2.hadoop
该版本的Hbase只可以运行在Hadoop 0.20.x,不可以运行于hadoop 0.21.x (0.22.x也不行). HBase运行在没有持久同步功能的HDFS上会丢失数据。 Hadoop 0.20.2 和 Hadoop 0.20.203.0就没有这个功能。现在只有branch-0.20-append补丁有这个功能[1]. 现在官方的发行版都没有这个功能,所以你要自己打这个补丁。推荐看 Michael Noll 写的详细的说明,Building an Hadoop 0.20.x version for HBase 0.90.2.
你还可以用 Cloudera'sCDH3. CDH 打了这个补丁 (CDH3 betas 就可以满足; b2, b3, or b4).
因为Hbase建立在Hadoop之上,所以他用到了hadoop.jar,这个Jar在lib
里面。这个jar是hbase自己打了branch-0.20-append 补丁的hadoop.jar. Hadoop使用的hadoop.jar和Hbase使用的必须一致。所以你需要将 Hbaselib
目录下的hadoop.jar替换成Hadoop里面的那个,防止版本冲突。比方说CDH的版本没有HDFS-724而branch-0.20-append里面有,这个HDFS-724补丁修改了RPC协议。如果不替换,就会有版本冲突,继而造成严重的出错,Hadoop会看起来挂了。
我可以用Hbase里面的支持sync的hadoop.jar替代Hadoop里面的那个吗?
你可以这么干。详细可以参见这个邮件列表.
Hadoop 安全性
HBase运行在Hadoop 0.20.x上,就可以使用其中的安全特性 -- 只要你用这两个版本0.20S 和CDH3B3,然后把hadoop.jar替换掉就可以了.
必须安装ssh,sshd也必须运行,这样Hadoop的脚本才可以远程操控其他的Hadoop和Hbase进程。ssh之间必须都打通,不用密码都可以登录,详细方法可以Google一下 ("ssh passwordless login").
HBase使用本地 hostname 才获得IP地址. 正反向的DNS都是可以的.
如果你的机器有多个接口,Hbase会使用hostname指向的主接口.
如果还不够,你可以设置hbase.regionserver.dns.interface
来指定主接口。当然你的整个集群的配置文件都必须一致,每个主机都使用相同的网络接口
还有一种方法是设置hbase.regionserver.dns.nameserver
来指定nameserver,不使用系统带的.
集群的时钟要保证基本的一致。稍有不一致是可以容忍的,但是很大的不一致会造成奇怪的行为。 运行NTP或者其他什么东西来同步你的时间.
如果你查询的时候或者是遇到奇怪的故障,可以检查一下系统时间是否正确!
HBase是数据库,会在同一时间使用很多的文件句柄。大多数linux系统使用的默认值1024是不能满足的,会导致FAQ: Why do I see "java.io.IOException...(Too many open files)" in my logs?异常。还可能会发生这样的异常
2010-04-06 03:04:37,542 INFO org.apache.hadoop.hdfs.DFSClient: Exception increateBlockOutputStream java.io.EOFException 2010-04-06 03:04:37,542 INFO org.apache.hadoop.hdfs.DFSClient: Abandoning block blk_-6935524980745310745_1391901
所以你需要修改你的最大文件句柄限制。可以设置到10k. 你还需要修改 hbase 用户的nproc
,如果过低会造成OutOfMemoryError
异常。[2][3].
需要澄清的,这两个设置是针对操作系统的,不是Hbase本身的。有一个常见的错误是Hbase运行的用户,和设置最大值的用户不是一个用户。在Hbase启动的时候,第一行日志会现在ulimit信息,所以你最好检查一下。[4]
如果你使用的是Ubuntu,你可以这样设置:
在文件/etc/security/limits.conf
添加一行,如:
hadoop - nofile 32768
可以把hadoop
替换成你运行Hbase和Hadoop的用户。如果你用两个用户,你就需要配两个。还有配nproc hard 和 soft limits. 如:
hadoop soft/hard nproc 32000
.
在/etc/pam.d/common-session
加上这一行:
session required pam_limits.so
否则在/etc/security/limits.conf
上的配置不会生效.
还有注销再登录,这些配置才能生效!
一个 Hadoop HDFS Datanode 有一个同时处理文件的上限. 这个参数叫xcievers
(Hadoop的作者把这个单词拼错了). 在你加载之前,先确认下你有没有配置这个文件conf/hdfs-site.xml
里面的xceivers
参数,至少要有4096:
<property> <name>dfs.datanode.max.xcievers</name> <value>4096</value> </property>
对于HDFS修改配置要记得重启.
如果没有这一项配置,你可能会遇到奇怪的失败。你会在Datanode的日志中看到xcievers exceeded,但是运行起来会报 missing blocks错误。例如:10/12/08 20:10:31 INFO hdfs.DFSClient: Could not obtain block blk_XXXXXXXXXXXXXXXXXXXXXX_YYYYYYYY from any node: java.io.IOException: No live nodes contain current block. Will get new block locations from namenode and retry...
[5]
HBase没有怎么在Windows下测试过。所以不推荐在Windows下运行.
如果你实在是想运行,需要安装Cygwin还虚拟一个unix环境.详情请看Windows 安装指导. 或者搜索邮件列表找找最近的关于windows的注意点
HBase有两个运行模式:Section1.3.2.1, “单机模式”和Section1.3.2.2, “分布式模式”. 默认是单机模式,如果要分布式模式你需要编辑conf
文件夹中的配置文件.
不管是什么模式,你都需要编辑conf/hbase-env.sh
来告知Hbasejava的安装路径.在这个文件里你还可以设置Hbase的运行环境,诸如 heapsize和其他JVM有关的选项, 还有Log文件地址,等等. 设置JAVA_HOME
指向java安装的路径.
这是默认的模式,在Section1.2, “快速开始”一章中介绍的就是这个模式. 在单机模式中,Hbase使用本地文件系统,而不是HDFS ,所以的服务和zooKeeper都运作在一个JVM中。zookeep监听一个端口,这样客户端就可以连接Hbase了。
分布式模式分两种。伪分布式模式是把进程运行在一台机器上,但不是一个JVM.而完全分布式模式就是把整个服务被分布在各个节点上了[6].
分布式模式需要使用Hadoop Distributed File System(HDFS).可以参见HDFS需求和指导来获得关于安装HDFS的指导。在操作Hbase之前,你要确认HDFS可以正常运作。
在我们安装之后,你需要确认你的伪分布式模式或者完全分布式模式的配置是否正确。这两个模式可以使用同一个验证脚本Section1.3.2.3, “运行和确认你的安装”。
伪分布式模式是一个相对简单的分布式模式。这个模式是用来测试的。不能把这个模式用于生产环节,也不能用于测试性能。
你确认HDFS安装成功之后,就可以先编辑conf/hbase-site.xml
。在这个文件你可以加入自己的配置,这个配置会覆盖Section3.1.1, “HBase 默认配置”andSection1.3.2.2.2.3, “HDFS客户端配置”. 运行Hbase需要设置hbase.rootdir
属性.该属性是指Hbase在HDFS中使用的目录的位置。例如,要想/hbase
目录,让namenode 监听locahost的9000端口,只有一份数据拷贝(HDFS默认是3份拷贝)。可以在hbase-site.xml
写上如下内容
<configuration> ... <property> <name>hbase.rootdir</name> <value>hdfs://localhost:9000/hbase</value> <description>The directory shared by RegionServers. </description> </property> <property> <name>dfs.replication</name> <value>1</value> <description>The replication count for HLog & HFile storage. Should not be greater than HDFS datanode count. </description> </property> ... </configuration>
Note
让Hbase自己创建hbase.rootdir
目录,如果你自己建这个目录,会有一个warning,Hbase会试图在里面进行migration操作,但是缺少必须的文件。
Note
上面我们绑定到localhost
. 也就是说除了本机,其他机器连不上Hbase。所以你需要设置成别的,才能使用它。
现在可以跳到Section1.3.2.3, “运行和确认你的安装”来运行和确认你的伪分布式模式安装了。[7]
要想运行完全分布式模式,你要进行如下配置,先在hbase-site.xml
, 加一个属性hbase.cluster.distributed
设置为true
然后把hbase.rootdir
设置为HDFS的NameNode的位置。 例如,你的namenode运行在namenode.example.org,端口是9000 你期望的目录是/hbase
,使用如下的配置
<configuration> ... <property> <name>hbase.rootdir</name> <value>hdfs://namenode.example.org:9000/hbase</value> <description>The directory shared by RegionServers. </description> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> <description>The mode the cluster will be in. Possible values are false: standalone and pseudo-distributed setups with managed Zookeeper true: fully-distributed with unmanaged Zookeeper Quorum (see hbase-env.sh) </description> </property> ... </configuration>
完全分布式模式的还需要修改conf/regionservers
. 在Section1.3.3.1.2, “regionservers
”列出了你希望运行的全部HRegionServer,一行写一个host (就像Hadoop里面的slaves
一样). 列在这里的server会随着集群的启动而启动,集群的停止而停止.
一个分布式运行的Hbase依赖一个zookeeper集群。所有的节点和客户端都必须能够访问zookeeper。默认的情况下Hbase会管理一个zookeep集群。这个集群会随着Hbase的启动而启动。当然,你也可以自己管理一个zookeeper集群,但需要配置Hbase。你需要修改conf/hbase-env.sh
里面的HBASE_MANAGES_ZK
来切换。这个值默认是true的,作用是让Hbase启动的时候同时也启动zookeeper.
当Hbase管理zookeeper的时候,你可以通过修改zoo.cfg
来配置zookeeper,一个更加简单的方法是在conf/hbase-site.xml
里面修改zookeeper的配置。Zookeep的配置是作为property写在hbase-site.xml
里面的。option的名字是hbase.zookeeper.property
. 打个比方,clientPort
配置在xml里面的名字是hbase.zookeeper.property.clientPort
. 所有的默认值都是Hbase决定的,包括zookeeper, 参见Section3.1.1, “HBase 默认配置”. 可以查找hbase.zookeeper.property
前缀,找到关于zookeeper的配置。[8]
对于zookeepr的配置,你至少要在hbase-site.xml
中列出zookeepr的ensemble servers,具体的字段是hbase.zookeeper.quorum
. 该这个字段的默认值是localhost
,这个值对于分布式应用显然是不可以的. (远程连接无法使用).
我需要运行几个zookeeper?
你运行一个zookeeper也是可以的,但是在生产环境中,你最好部署3,5,7个节点。部署的越多,可靠性就越高,当然只能部署奇数个,偶数个是不可以的。你需要给每个zookeeper 1G左右的内存,如果可能的话,最好有独立的磁盘。 (独立磁盘可以确保zookeeper是高性能的。).如果你的集群负载很重,不要把Zookeeper和RegionServer运行在同一台机器上面。就像DataNodes 和 TaskTrackers一样
打个比方,Hbase管理着的ZooKeeper集群在节点rs{1,2,3,4,5}.example.com, 监听2222 端口(默认是2181),并确保conf/hbase-env.sh
文件中HBASE_MANAGE_ZK
的值是true
,再编辑conf/hbase-site.xml
设置hbase.zookeeper.property.clientPort
和hbase.zookeeper.quorum
。你还可以设置hbase.zookeeper.property.dataDir
属性来把ZooKeeper保存数据的目录地址改掉。默认值是/tmp
,这里在重启的时候会被操作系统删掉,可以把它修改到/user/local/zookeeper
.
<configuration> ... <property> <name>hbase.zookeeper.property.clientPort</name> <value>2222</value> <description>Property from ZooKeeper's config zoo.cfg. The port at which the clients will connect. </description> </property> <property> <name>hbase.zookeeper.quorum</name> <value>rs1.example.com,rs2.example.com,rs3.example.com,rs4.example.com,rs5.example.com</value> <description>Comma separated list of servers in the ZooKeeper Quorum. For example, "host1.mydomain.com,host2.mydomain.com,host3.mydomain.com". By default this is set to localhost for local and pseudo-distributed modes of operation. For a fully-distributed setup, this should be set to a full list of ZooKeeper quorum servers. If HBASE_MANAGES_ZK is set in hbase-env.sh this is the list of servers which we will start/stop ZooKeeper on. </description> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/usr/local/zookeeper</value> <description>Property from ZooKeeper's config zoo.cfg. The directory where the snapshot is stored. </description> </property> ... </configuration>
让Hbase使用一个现有的不被Hbase托管的Zookeep集群,需要设置conf/hbase-env.sh
文件中的HBASE_MANAGES_ZK
属性为 false
... # Tell HBase whether it should manage it's own instance of Zookeeper or not. export HBASE_MANAGES_ZK=false
接下来,指明Zookeeper的host和端口。可以在hbase-site.xml
中设置, 也可以在Hbase的CLASSPATH
下面加一个zoo.cfg
配置文件。 HBase 会优先加载zoo.cfg
里面的配置,把hbase-site.xml
里面的覆盖掉.
当Hbase托管ZooKeeper的时候,Zookeeper集群的启动是Hbase启动脚本的一部分。但现在,你需要自己去运行。你可以这样做
${HBASE_HOME}/bin/hbase-daemons.sh {start,stop} zookeeper
你可以用这条命令启动ZooKeeper而不启动Hbase.HBASE_MANAGES_ZK
的值是false
, 如果你想在Hbase重启的时候不重启ZooKeeper,你可以这样做
对于独立Zoopkeeper的问题,你可以在Zookeeper启动得到帮助.
如果你希望Hadoop集群上做HDFS 客户端配置,例如你的HDFS客户端的配置和服务端的不一样。按照如下的方法配置,HBase就能看到你的配置信息:
-
在
hbase-env.sh
里将HBASE_CLASSPATH
环境变量加上HADOOP_CONF_DIR
。 -
在
${HBASE_HOME}/conf
下面加一个hdfs-site.xml
(或者hadoop-site.xml
) ,最好是软连接 -
如果你的HDFS客户端的配置不多的话,你可以把这些加到
hbase-site.xml
上面.
例如HDFS的配置dfs.replication
.你希望复制5份,而不是默认的3份。如果你不照上面的做的话,Hbase只会复制3份。
首先确认你的HDFS是运行着的。你可以运行HADOOP_HOME
中的bin/start-hdfs.sh
来启动HDFS.你可以通过put命令来测试放一个文件,然后有get命令来读这个文件。通常情况下Hbase是不会运行mapreduce的。所以比不需要检查这些。
如果你自己管理ZooKeeper集群,你需要确认它是运行着的。如果是Hbase托管,ZoopKeeper会随Hbase启动。
用如下命令启动Hbase:
bin/start-hbase.sh这个脚本在
HBASE_HOME
目录里面。
你现在已经启动Hbase了。Hbase把log记在logs
子目录里面. 当Hbase启动出问题的时候,可以看看Log.
Hbase也有一个界面,上面会列出重要的属性。默认是在Master的60010端口上H (HBase RegionServers 会默认绑定 60020端口,在端口60030上有一个展示信息的界面 ).如果Master运行在master.example.org
,端口是默认的话,你可以用浏览器在http://master.example.org:60010
看到主界面. .
一旦Hbase启动,参见Section1.2.3, “Shell 练习”可以看到如何建表,插入数据,scan你的表,还有disable这个表,最后把它删掉。
可以在Hbase Shell停止Hbase
$ ./bin/stop-hbase.sh stopping hbase...............
停止操作需要一些时间,你的集群越大,停的时间可能会越长。如果你正在运行一个分布式的操作,要确认在Hbase彻底停止之前,Hadoop不能停.
这里是一个10节点的Hbase的简单示例,这里的配置都是基本的,节点名为example0
,example1
... 一直到example9
. HBase Master 和 HDFS namenode 运作在同一个节点example0
上. RegionServers 运行在节点example1
-example9
. 一个 3-节点 ZooKeeper 集群运行在example1
,example2
, 和example3
,端口保持默认. ZooKeeper 的数据保存在目录/export/zookeeper
. 下面我们展示主要的配置文件--hbase-site.xml
,regionservers
, 和hbase-env.sh
-- 这些文件可以在conf
目录找到.
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>hbase.zookeeper.quorum</name> <value>example1,example2,example3</value> <description>The directory shared by RegionServers. </description> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/export/zookeeper</value> <description>Property from ZooKeeper's config zoo.cfg. The directory where the snapshot is stored. </description> </property> <property> <name>hbase.rootdir</name> <value>hdfs://example0:9000/hbase</value> <description>The directory shared by RegionServers. </description> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> <description>The mode the cluster will be in. Possible values are false: standalone and pseudo-distributed setups with managed Zookeeper true: fully-distributed with unmanaged Zookeeper Quorum (see hbase-env.sh) </description> </property> </configuration>
这个文件把RegionServer的节点列了下来。在这个例子里面我们让所有的节点都运行RegionServer,除了第一个节点example1
,它要运行 HBase Master 和 HDFS namenode
example1 example3 example4 example5 example6 example7 example8 example9
下面我们用diff命令来展示hbase-env.sh
文件相比默认变化的部分. 我们把Hbase的堆内存设置为4G而不是默认的1G.
$ git diff hbase-env.sh diff --git a/conf/hbase-env.sh b/conf/hbase-env.sh index e70ebc6..96f8c27 100644 --- a/conf/hbase-env.sh +++ b/conf/hbase-env.sh @@ -31,7 +31,7 @@ export JAVA_HOME=/usr/lib//jvm/java-6-sun/ # export HBASE_CLASSPATH= # The maximum amount of heap to use, in MB. Default is 1000. -# export HBASE_HEAPSIZE=1000 +export HBASE_HEAPSIZE=4096 # Extra Java runtime options. # Below are what we set by default. May only work with SUN JVM.
你可以使用rsync来同步conf
文件夹到你的整个集群.
[1]SeeCHANGES.txtin branch-0.20-append to see list of patches involved adding append on the Hadoop 0.20 branch.
[2]See Jack Levin'smajor hdfs issuesnote up on the user list.
[3]这样的需求对于数据库应用来说是很常见的,例如Oracle。Setting Shell Limits for the Oracle UserinShort Guide to install Oracle 10 on Linux.
[4]A useful read setting config on you hadoop cluster is Aaron Kimballs' Configuration Parameters: What can you just ignore?
[5]参见Hadoop HDFS: Deceived by Xcieverfor an informative rant on xceivering.
[6]这两个命名法来自于Hadoop.
[7]SeePseudo-distributed mode extrasfor notes on how to start extra Masters and RegionServers when running pseudo-distributed.
[8]For the full list of ZooKeeper configurations, see ZooKeeper'szoo.cfg
. HBase does not ship with azoo.cfg
so you will need to browse theconf
directory in an appropriate ZooKeeper download.
Table of Contents
参见Section1.3.1, “需要的软件”, 需要特别注意有关Hadoop 版本的信息.
0.90.x 版本的HBase可以在 HBase 0.20.x 或者 HBase 0.89.x的数据上启动. 不需要转换数据文件, HBase 0.89.x 和 0.90.x 的region目录名是不一样的 -- 老版本用md5 hash 而不是jenkins hash 来命名region-- 这就意味着,一旦启动,再也不能回退到 HBase 0.20.x.
在升级的时候,一定要将hbase-default.xml
从你的conf
目录删掉。 0.20.x 版本的配置对于 0.90.x HBase不是最佳的.hbase-default.xml
现在已经被打包在 HBase jar 里面了. 如果你想看看这个文件内容,你可以在src目录下src/main/resources/hbase-default.xml
或者在Section3.1.1, “HBase 默认配置”看到.
最后,如果从0.20.x升级,需要在shell里检查.META.
schema . 过去,我们推荐用户使用16KB的MEMSTORE_FLUSHSIZE
. 在shell中运行hbase> scan '-ROOT-'
. 会显示当前的.META.
schema. 检查MEMSTORE_FLUSHSIZE
的大小. 看看是不是 16KB (16384)? 如果是的话,你需要修改它(默认的值是 64MB (67108864)) 运行脚本bin/set_meta_memstore_size.rb
. 这个脚本会修改.META.
schema. 如果不运行的话,集群会比较慢[9].
Table of Contents
hbase-site.xml
和hbase-default.xml
hbase-env.sh
log4j.properties
zookeeper.session.timeout
hbase.regionserver.handler.count
Hbase的配置系统和Hadoop一样。在conf/hbase-env.sh
配置系统的部署信息和环境变量。 -- 这个配置会被启动shell使用 -- 然后在XML文件里配置信息,覆盖默认的配置。告知Hbase使用什么目录地址,ZooKeeper的位置等等信息。[10].
当你使用分布式模式的时间,当你编辑完一个文件之后,记得要把这个文件复制到整个集群的conf
目录下。Hbase不会帮你做这些,你得用rsync.
正如Hadoop放置HDFS的配置文件hdfs-site.xml
,Hbase的配置文件是conf/hbase-site.xml
. 你可以在Section3.1.1, “HBase 默认配置”找到配置的属性列表。你也可以看有代码里面的hbase-default.xml
文件,他在src/main/resources
目录下。
不是所有的配置都在hbase-default.xml
出现.只要改了代码,配置就有可能改变,所以唯一了解这些被改过的配置的办法是读源代码本身。
要注意的是,要重启集群才能是配置生效。
该文档是用hbase默认配置文件生成的,文件源是hbase-default.xml
(因翻译需要,被译者修改成中文注释).
hbase.rootdir
这个目录是region server的共享目录,用来持久化Hbase。URL需要是'完全正确'的,还要包含文件系统的scheme。例如,要表示hdfs中的'/hbase'目录,namenode 运行在namenode.example.org的9090端口。则需要设置为hdfs://namenode.example.org:9000/hbase。默认情况下Hbase是写到/tmp的。不改这个配置,数据会在重启的时候丢失。
默认:file:///tmp/hbase-${user.name}/hbase
hbase.master.port
Hbase的Master的端口.
默认:60000
hbase.cluster.distributed
Hbase的运行模式。false是单机模式,true是分布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面。
默认:false
hbase.tmp.dir
本地文件系统的临时文件夹。可以修改到一个更为持久的目录上。(/tmp会在重启时清楚)
默认:/tmp/hbase-${user.name}
hbase.master.info.port
HBase Master web 界面端口. 设置为-1 意味着你不想让他运行。
默认:60010
hbase.master.info.bindAddress
HBase Master web 界面绑定的端口
默认:0.0.0.0
hbase.client.write.buffer
HTable客户端的写缓冲的默认大小。这个值越大,需要消耗的内存越大。因为缓冲在客户端和服务端都有实例,所以需要消耗客户端和服务端两个地方的内存。得到的好处是,可以减少RPC的次数。可以这样估算服务器端被占用的内存: hbase.client.write.buffer * hbase.regionserver.handler.count
默认:2097152
hbase.regionserver.port
HBase RegionServer绑定的端口
默认:60020
hbase.regionserver.info.port
HBase RegionServer web 界面绑定的端口 设置为 -1 意味这你不想与运行 RegionServer 界面.
默认:60030
hbase.regionserver.info.port.auto
Master或RegionServer是否要动态搜一个可以用的端口来绑定界面。当hbase.regionserver.info.port已经被占用的时候,可以搜一个空闲的端口绑定。这个功能在测试的时候很有用。默认关闭。
默认:false
hbase.regionserver.info.bindAddress
HBase RegionServer web 界面的IP地址
默认:0.0.0.0
hbase.regionserver.class
RegionServer 使用的接口。客户端打开代理来连接region server的时候会使用到。
默认:org.apache.hadoop.hbase.ipc.HRegionInterface
hbase.client.pause
通常的客户端暂停时间。最多的用法是客户端在重试前的等待时间。比如失败的get操作和region查询操作等都很可能用到。
默认:1000
hbase.client.retries.number
最大重试次数。例如 region查询,Get操作,Update操作等等都可能发生错误,需要重试。这是最大重试错误的值。
默认:10
hbase.client.scanner.caching
当调用Scanner的next方法,而值又不在缓存里的时候,从服务端一次获取的行数。越大的值意味着Scanner会快一些,但是会占用更多的内存。当缓冲被占满的时候,next方法调用会越来越慢。慢到一定程度,可能会导致超时。例如超过了hbase.regionserver.lease.period。
默认:1
hbase.client.keyvalue.maxsize
一个KeyValue实例的最大size.这个是用来设置存储文件中的单个entry的大小上界。因为一个KeyValue是不能分割的,所以可以避免因为数据过大导致region不可分割。明智的做法是把它设为可以被最大region size整除的数。如果设置为0或者更小,就会禁用这个检查。默认10MB。
默认:10485760
hbase.regionserver.lease.period
客户端租用HRegion server 期限,即超时阀值。单位是毫秒。默认情况下,客户端必须在这个时间内发一条信息,否则视为死掉。
默认:60000
hbase.regionserver.handler.count
RegionServers受理的RPC Server实例数量。对于Master来说,这个属性是Master受理的handler数量
默认:10
hbase.regionserver.msginterval
RegionServer 发消息给 Master 时间间隔,单位是毫秒
默认:3000
hbase.regionserver.optionallogflushinterval
将Hlog同步到HDFS的间隔。如果Hlog没有积累到一定的数量,到了时间,也会触发同步。默认是1秒,单位毫秒。
默认:1000
hbase.regionserver.regionSplitLimit
region的数量到了这个值后就不会在分裂了。这不是一个region数量的硬性限制。但是起到了一定指导性的作用,到了这个值就该停止分裂了。默认是MAX_INT.就是说不阻止分裂。
默认:2147483647
hbase.regionserver.logroll.period
提交commit log的间隔,不管有没有写足够的值。
默认:3600000
hbase.regionserver.hlog.reader.impl
HLog file reader 的实现.
默认:org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
hbase.regionserver.hlog.writer.impl
HLog file writer 的实现.
默认:org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogWriter
hbase.regionserver.thread.splitcompactcheckfrequency
region server 多久执行一次split/compaction 检查.
默认:20000
hbase.regionserver.nbreservationblocks
储备的内存block的数量(译者注:就像石油储备一样)。当发生out of memory 异常的时候,我们可以用这些内存在RegionServer停止之前做清理操作。
默认:4
hbase.zookeeper.dns.interface
当使用DNS的时候,Zookeeper用来上报的IP地址的网络接口名字。
默认:default
hbase.zookeeper.dns.nameserver
当使用DNS的时候,Zookeepr使用的DNS的域名或者IP 地址,Zookeeper用它来确定和master用来进行通讯的域名.
默认:default
hbase.regionserver.dns.interface
当使用DNS的时候,RegionServer用来上报的IP地址的网络接口名字。
默认:default
hbase.regionserver.dns.nameserver
当使用DNS的时候,RegionServer使用的DNS的域名或者IP 地址,RegionServer用它来确定和master用来进行通讯的域名.
默认:default
hbase.master.dns.interface
当使用DNS的时候,Master用来上报的IP地址的网络接口名字。
默认:default
hbase.master.dns.nameserver
当使用DNS的时候,RegionServer使用的DNS的域名或者IP 地址,Master用它来确定用来进行通讯的域名.
默认:default
hbase.balancer.period
Master执行region balancer的间隔。
默认:300000
hbase.regions.slop
当任一regionserver有average + (average * slop)个region是会执行Rebalance
默认:0
hbase.master.logcleaner.ttl
Hlog存在于.oldlogdir 文件夹的最长时间, 超过了就会被 Master 的线程清理掉.
默认:600000
hbase.master.logcleaner.plugins
LogsCleaner服务会执行的一组LogCleanerDelegat。值用逗号间隔的文本表示。这些WAL/HLog cleaners会按顺序调用。可以把先调用的放在前面。你可以实现自己的LogCleanerDelegat,加到Classpath下,然后在这里写下类的全称。一般都是加在默认值的前面。
默认:org.apache.hadoop.hbase.master.TimeToLiveLogCleaner
hbase.regionserver.global.memstore.upperLimit
单个region server的全部memtores的最大值。超过这个值,一个新的update操作会被挂起,强制执行flush操作。
默认:0.4
hbase.regionserver.global.memstore.lowerLimit
当强制执行flush操作的时候,当低于这个值的时候,flush会停止。默认是堆大小的 35% . 如果这个值和 hbase.regionserver.global.memstore.upperLimit 相同就意味着当update操作因为内存限制被挂起时,会尽量少的执行flush(译者注:一旦执行flush,值就会比下限要低,不再执行)
默认:0.35
hbase.server.thread.wakefrequency
service工作的sleep间隔,单位毫秒。 可以作为service线程的sleep间隔,比如log roller.
默认:10000
hbase.hregion.memstore.flush.size
当memstore的大小超过这个值的时候,会flush到磁盘。这个值被一个线程每隔hbase.server.thread.wakefrequency检查一下。
默认:67108864
hbase.hregion.preclose.flush.size
当一个region中的memstore的大小大于这个值的时候,我们又触发了close.会先运行“pre-flush”操作,清理这个需要关闭的memstore,然后将这个region下线。当一个region下线了,我们无法再进行任何写操作。如果一个memstore很大的时候,flush操作会消耗很多时间。"pre-flush"操作意味着在region下线之前,会先把memstore清空。这样在最终执行close操作的时候,flush操作会很快。
默认:5242880
hbase.hregion.memstore.block.multiplier
如果memstore有hbase.hregion.memstore.block.multiplier倍数的hbase.hregion.flush.size的大小,就会阻塞update操作。这是为了预防在update高峰期会导致的失控。如果不设上界,flush的时候会花很长的时间来合并或者分割,最坏的情况就是引发out of memory异常。(译者注:内存操作的速度和磁盘不匹配,需要等一等。原文似乎有误)
默认:2
hbase.hregion.memstore.mslab.enabled
体验特性:启用memStore分配本地缓冲区。这个特性是为了防止在大量写负载的时候堆的碎片过多。这可以减少GC操作的频率。(GC有可能会Stop the world)(译者注:实现的原理相当于预分配内存,而不是每一个值都要从堆里分配)
默认:false
hbase.hregion.max.filesize
最大HStoreFile大小。若某个Column families的HStoreFile增长达到这个值,这个Hegion会被切割成两个。 Default: 256M.
默认:268435456
hbase.hstore.compactionThreshold
当一个HStore含有多于这个值的HStoreFiles(每一个memstore flush产生一个HStoreFile)的时候,会执行一个合并操作,把这HStoreFiles写成一个。这个值越大,需要合并的时间就越长。
默认:3
hbase.hstore.blockingStoreFiles
当一个HStore含有多于这个值的HStoreFiles(每一个memstore flush产生一个HStoreFile)的时候,会执行一个合并操作,update会阻塞直到合并完成,直到超过了hbase.hstore.blockingWaitTime的值
默认:7
hbase.hstore.blockingWaitTime
hbase.hstore.blockingStoreFiles所限制的StoreFile数量会导致update阻塞,这个时间是来限制阻塞时间的。当超过了这个时间,HRegion会停止阻塞update操作,不过合并还有没有完成。默认为90s.
默认:90000
hbase.hstore.compaction.max
每个“小”合并的HStoreFiles最大数量。
默认:10
hbase.hregion.majorcompaction
一个Region中的所有HStoreFile的major compactions的时间间隔。默认是1天。 设置为0就是禁用这个功能。
默认:86400000
hbase.mapreduce.hfileoutputformat.blocksize
MapReduce中HFileOutputFormat可以写 storefiles/hfiles. 这个值是hfile的blocksize的最小值。通常在Hbase写Hfile的时候,bloocksize是由table schema(HColumnDescriptor)决定的,但是在mapreduce写的时候,我们无法获取schema中blocksize。这个值越小,你的索引就越大,你随机访问需要获取的数据就越小。如果你的cell都很小,而且你需要更快的随机访问,可以把这个值调低。
默认:65536
hfile.block.cache.size
分配给HFile/StoreFile的block cache占最大堆(-Xmx setting)的比例。默认是20%,设置为0就是不分配。
默认:0.2
hbase.hash.type
哈希函数使用的哈希算法。可以选择两个值:: murmur (MurmurHash) 和 jenkins (JenkinsHash). 这个哈希是给 bloom filters用的.
默认:murmur
hbase.master.keytab.file
HMaster server验证登录使用的kerberos keytab 文件路径。(译者注:Hbase使用Kerberos实现安全)
默认:
hbase.master.kerberos.principal
例如. "hbase/_HOST@EXAMPLE.COM". HMaster运行需要使用 kerberos principal name. principal name 可以在: user/hostname@DOMAIN 中获取. 如果 "_HOST" 被用做hostname portion,需要使用实际运行的hostname来替代它。
默认:
hbase.regionserver.keytab.file
HRegionServer验证登录使用的kerberos keytab 文件路径。
默认:
hbase.regionserver.kerberos.principal
例如. "hbase/_HOST@EXAMPLE.COM". HRegionServer运行需要使用 kerberos principal name. principal name 可以在: user/hostname@DOMAIN 中获取. 如果 "_HOST" 被用做hostname portion,需要使用实际运行的hostname来替代它。在这个文件中必须要有一个entry来描述 hbase.regionserver.keytab.file
默认:
zookeeper.session.timeout
ZooKeeper 会话超时.Hbase把这个值传递改zk集群,向他推荐一个会话的最大超时时间。详见http://hadoop.apache.org/zookeeper/docs/current/zookeeperProgrammers.html#ch_zkSessions "The client sends a requested timeout, the server responds with the timeout that it can give the client. "。 单位是毫秒
默认:180000
zookeeper.znode.parent
ZooKeeper中的Hbase的根ZNode。所有的Hbase的ZooKeeper会用这个目录配置相对路径。默认情况下,所有的Hbase的ZooKeeper文件路径是用相对路径,所以他们会都去这个目录下面。
默认:/hbase
zookeeper.znode.rootserver
ZNode 保存的 根region的路径. 这个值是由Master来写,client和regionserver 来读的。如果设为一个相对地址,父目录就是 ${zookeeper.znode.parent}.默认情形下,意味着根region的路径存储在/hbase/root-region-server.
默认:root-region-server
hbase.zookeeper.quorum
Zookeeper集群的地址列表,用逗号分割。例如:"host1.mydomain.com,host2.mydomain.com,host3.mydomain.com".默认是localhost,是给伪分布式用的。要修改才能在完全分布式的情况下使用。如果在hbase-env.sh设置了HBASE_MANAGES_ZK,这些ZooKeeper节点就会和Hbase一起启动。
默认:localhost
hbase.zookeeper.peerport
ZooKeeper节点使用的端口。详细参见:http://hadoop.apache.org/zookeeper/docs/r3.1.1/zookeeperStarted.html#sc_RunningReplicatedZooKeeper
默认:2888
hbase.zookeeper.leaderport
ZooKeeper用来选择Leader的端口,详细参见:http://hadoop.apache.org/zookeeper/docs/r3.1.1/zookeeperStarted.html#sc_RunningReplicatedZooKeeper
默认:3888
hbase.zookeeper.property.initLimit
ZooKeeper的zoo.conf中的配置。 初始化synchronization阶段的ticks数量限制
默认:10
hbase.zookeeper.property.syncLimit
ZooKeeper的zoo.conf中的配置。 发送一个请求到获得承认之间的ticks的数量限制
默认:5
hbase.zookeeper.property.dataDir
ZooKeeper的zoo.conf中的配置。 快照的存储位置
默认:${hbase.tmp.dir}/zookeeper
hbase.zookeeper.property.clientPort
ZooKeeper的zoo.conf中的配置。 客户端连接的端口
默认:2181
hbase.zookeeper.property.maxClientCnxns
ZooKeeper的zoo.conf中的配置。 ZooKeeper集群中的单个节点接受的单个Client(以IP区分)的请求的并发数。这个值可以调高一点,防止在单机和伪分布式模式中出问题。
默认:2000
hbase.rest.port
HBase REST server的端口
默认:8080
hbase.rest.readonly
定义REST server的运行模式。可以设置成如下的值: false: 所有的HTTP请求都是被允许的 - GET/PUT/POST/DELETE. true:只有GET请求是被允许的
默认:false
在这个文件里面设置HBase环境变量。比如可以配置JVM启动的堆大小或者GC的参数。你还可在这里配置Hbase的参数,如Log位置,niceness(译者注:优先级),ssh参数还有pid文件的位置等等。打开文件conf/hbase-env.sh
细读其中的内容。每个选项都是有详尽的注释的。你可以在此添加自己的环境变量。
这个文件的改动系统Hbase重启才能生效。
下面我们会列举重要的配置. 这个章节讲述必须的配置和那些值得一看的配置。(译者注:淘宝的博客也有本章节的内容,HBase性能调优,很详尽)。
参见Section1.3.1, “需要的软件”. 这里列举了运行Hbase至少两个必须的配置: i.e.Section1.3.1.6, “ulimit
和nproc
”和Section1.3.1.7, “dfs.datanode.max.xcievers
”.
这个默认值是3分钟。这意味着一旦一个server宕掉了,Master至少需要3分钟才能察觉到宕机,开始恢复。你可能希望将这个超时调短,这样Master就能更快的察觉到了。在你调这个值之前,你需要确认你的JVM的GC参数,否则一个长时间的GC操作就可能导致超时。(当一个RegionServer在运行一个长时间的GC的时候,你可能想要重启并恢复它).
要想改变这个配置,可以编辑hbase-site.xml
, 将配置部署到全部集群,然后重启。
我们之所以把这个值调的很高,是因为我们不想一天到晚在论坛里回答新手的问题。“为什么我在执行一个大规模数据导入的时候Region Server死掉啦”,通常这样的问题是因为长时间的GC操作引起的,他们的JVM没有调优。我们是这样想的,如果一个人对Hbase不很熟悉,不能期望他知道所有,打击他的自信心。等到他逐渐熟悉了,他就可以自己调这个参数了。
这个设置决定了处理用户请求的线程数量。默认是10,这个值设的比较小,主要是为了预防用户用一个比较大的写缓冲,然后还有很多客户端并发,这样region servers会垮掉。有经验的做法是,当请求内容很大(上MB,如大puts, 使用缓存的scans)的时候,把这个值放低。请求内容较小的时候(gets, 小puts, ICVs, deletes),把这个值放大。
当客户端的请求内容很小的时候,把这个值设置的和最大客户端数量一样是很安全的。一个典型的例子就是一个给网站服务的集群,put操作一般不会缓冲,绝大多数的操作是get操作。
把这个值放大的危险之处在于,把所有的Put操作缓冲意味着对内存有很大的压力,甚至会导致OutOfMemory.一个运行在内存不足的机器的RegionServer会频繁的触发GC操作,渐渐就能感受到停顿。(因为所有请求内容所占用的内存不管GC执行几遍也是不能回收的)。一段时间后,集群也会受到影响,因为所有的指向这个region的请求都会变慢。这样就会拖累集群,加剧了这个问题。
Hbase有一个合理的保守的配置,这样可以运作在所有的机器上。如果你有台大内存的集群-Hbase有8G或者更大的heap,接下来的配置可能会帮助你 TODO.(译者注:原文到此为止,汗)
你可以考虑使用Lzo压缩,这个可以无缝集成,并且在大多数情况下可以提供性能。
Hbase是Apache的协议,而LZO是GPL的协议。Hbase不能自带LZO,因此LZO需要在安装Hbase之前安装。参见使用 LZO 压缩介绍了如何在Hbase中使用LZO
一个常见的问题是,用户在一开始使用LZO的时候会很好,但是数月过去,管理员在给集群添加集群的时候,他们忘记了LZO的事情。在0.90.0版本之后,我们会运行失败,但也有可能不。 请你要阅读这一段[11].
还要在本书的尾部参见AppendixB,HBase中的压缩.
更大的Region可以使你集群上的Region的总数量较少。 一般来言,更少的Region可以使你的集群运行更加流畅。(你可以自己随时手工将大Region切割,这样单个热点Region就会被分布在集群的更多节点上)。默认情况下单个Region是256MB.你可以设置为1G。有些人使用更大的,4G甚至更多。可以调整hbase-site.xml
中的hbase.hregion.max.filesize
属性.
除了让Hbase自动切割你的Region,你也可以手动切割。[12]随着数据量的增大,splite会被持续执行。如果你需要知道你现在有几个region,比如长时间的debug或者做调优,你需要手动切割。通过跟踪日志来了解region级的问题是很难的,因为他在不停的切割和重命名。data offlineing bug和未知量的region会让你没有办法。如果一个HLog
或者StoreFile
由于一个奇怪的bug,Hbase没有执行它。等到一天之后,你才发现这个问题,你可以确保现在的regions和那个时候的一样,这样你就可以restore或者replay这些数据。你还可以调优你的合并算法。如果数据是均匀的,随着数据增长,很容易导致split / compaction疯狂的运行。因为所有的region都是差不多大的。用手的切割,你就可以交错执行定时的合并和切割操作,降低IO负载。
为什么我关闭自动split呢?因为自动的splite是配置文件中的hbase.hregion.max.filesize
决定的. 你把它设置成ILong.MAX_VALUE
是不推荐的做法,要是你忘记了手工切割怎么办.推荐的做法是设置成100GB,一旦到达这样的值,至少需要一个小时执行 major compactions。
那什么是最佳的在pre-splite regions的数量呢。这个决定于你的应用程序了。你可以先从低的开始,比如每个server10个pre-splite regions.然后花时间观察数据增长。有太少的region至少比出错好,你可以之后再rolling split.一个更复杂的答案是这个值是取决于你的region中的最大的storefile。随着数据的增大,这个也会跟着增大。 你可以当这个文件足够大的时候,用一个定时的操作使用Store
的合并选择算法(compact selection algorithm)来仅合并这一个HStore。如果你不这样做,这个算法会启动一个 major compactions,很多region会受到影响,你的集群会疯狂的运行。需要注意的是,这样的疯狂合并操作是数据增长造成的,而不是手动分割操作决定的。
如果你 pre-split 导致 regions 很小,你可以通过配置HConstants.MAJOR_COMPACTION_PERIOD
把你的major compaction参数调大
如果你的数据变得太大,可以使用org.apache.hadoop.hbase.util.RegionSplitter
脚本来执行针对全部集群的一个网络IO安全的rolling split操作。
因为Hbase的Master有可能转移,所有客户端需要访问ZooKeeper来获得现在的位置。ZooKeeper会保存这些值。因此客户端必须知道Zookeeper集群的地址,否则做不了任何事情。通常这个地址存在hbase-site.xml
里面,客户端可以从CLASSPATH
取出这个文件.
如果你是使用一个IDE来运行Hbase客户端,你需要将conf/
放入你的 classpath,这样hbase-site.xml
就可以找到了,(或者把hbase-site.xml放到src/test/resources
,这样测试的时候可以使用).
Hbase客户端最小化的依赖是 hbase, hadoop, log4j, commons-logging, commons-lang, 和 ZooKeeper ,这些jars 需要能在CLASSPATH
中找到。
下面是一个基本的客户端hbase-site.xml
例子:
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>hbase.zookeeper.quorum</name> <value>example1,example2,example3</value> <description>The directory shared by region servers. </description> </property> </configuration>
Java客户端使用的配置信息是被映射在一个HBaseConfiguration实例中. HBaseConfiguration有一个工厂方法,HBaseConfiguration.create();
,运行这个方法的时候,他会去CLASSPATH
,下找hbase-site.xml
,读他发现的第一个配置文件的内容。 (这个方法还会去找hbase-default.xml
;hbase.X.X.X.jar
里面也会有一个an hbase-default.xml). 不使用任何hbase-site.xml
文件直接通过Java代码注入配置信息也是可以的。例如,你可以用编程的方式设置ZooKeeper信息,只要这样做:
Configuration config = HBaseConfiguration.create(); config.set("hbase.zookeeper.quorum", "localhost"); // Here we are running zookeeper locally
如果有多ZooKeeper实例,你可以使用逗号列表。(就像在hbase-site.xml
文件中做得一样). 这个Configuration
实例会被传递到HTable, 之类的实例里面去.
[10]Be careful editing XML. Make sure you close all elements. Run your file throughxmllintor similar to ensure well-formedness of your document after an edit session.
[11]参见SectionB.2, “hbase.regionserver.codecs
”可以看到关于LZO安装的具体信息,帮助你放在安装失败。
[12]What follows is taken from the javadoc at the head of theorg.apache.hadoop.hbase.util.RegionSplitter
tool added to HBase post-0.90.0 release.
Hbase Shell is 在(J)Ruby的IRB的基础上加上了HBase的命令。任何你可以在IRB里做的事情都可在在Hbase Shell中做。
你可以这样来运行HBase Shell:
$ ./bin/hbase shell
输入help就会返回Shell的命令列表和选项。可以看看在Help文档尾部的关于如何输入变量和选项。尤其要注意的是表名,行,列名必须要加引号。
参见Section1.2.3, “Shell 练习”可以看到Shell的基本使用例子。
如果要使用脚本,可以看Hbase的bin
目录.在里面找到后缀为*.rb
的脚本.要想运行这个脚本,要这样
$ ./bin/hbase org.jruby.Main PATH_TO_SCRIPT
就可以了
可以在你自己的Home目录下创建一个.irbrc
文件. 在这个文件里加入自定义的命令。有一个有用的命令就是记录命令历史,这样你就可以把你的命令保存起来。
$ more .irbrc require 'irb/ext/save-history' IRB.conf[:SAVE_HISTORY] = 100 IRB.conf[:HISTORY_FILE] = "#{ENV['HOME']}/.irb-save-history"
可以参见ruby关于.irbrc
的文档来学习更多的关于IRB的配置方法。
可以将日期'08/08/16 20:56:29'从hbase log 转换成一个 timestamp, 操作如下:
hbase(main):021:0> import java.text.SimpleDateFormat hbase(main):022:0> import java.text.ParsePosition hbase(main):023:0> SimpleDateFormat.new("yy/MM/dd HH:mm:ss").parse("08/08/16 20:56:29", ParsePosition.new(0)).getTime() => 1218920189000
也可以逆过来操作。
hbase(main):021:0> import java.util.Date hbase(main):022:0> Date.new(1218920189000).toString() => "Sat Aug 16 20:56:29 UTC 2008"
要想把日期格式和Hbase log格式完全相同,可以参见文档SimpleDateFormat.
Table of Contents
可以参考发布 Maven Artifacts的信息.要想让所有的组件正确运行,关键在于配置好mvn release plugin。确保你在运行mvn release:perform之前使用的是正确的分支版本。这点非常的重要,要手写${HBASE_HOME}
下的release.properties文件,然后执行release:perform.。你需要编辑它,这样才能将他指向一个正确的SVN地址。(译者注:可以使用cloudera)
如果你出现了如下的问题,是因为你需要在pom.xml里编辑版本然后加上-SNAPSHOT
。
[INFO] Scanning for projects... [INFO] Searching repository for plugin with prefix: 'release'. [INFO] ------------------------------------------------------------------------ [INFO] Building HBase [INFO] task-segment: [release:prepare] (aggregator-style) [INFO] ------------------------------------------------------------------------ [INFO] [release:prepare {execution: default-cli}] [INFO] ------------------------------------------------------------------------ [ERROR] BUILD FAILURE [INFO] ------------------------------------------------------------------------ [INFO] You don't have a SNAPSHOT project in the reactor projects list. [INFO] ------------------------------------------------------------------------ [INFO] For more information, run Maven with the -e switch [INFO] ------------------------------------------------------------------------ [INFO] Total time: 3 seconds [INFO] Finished at: Sat Mar 26 18:11:07 PDT 2011 [INFO] Final Memory: 35M/423M [INFO] -----------------------------------------------------------------------
参见HBASE-3678 Add Eclipse-based Apache Formatter to HBase Wiki可以看到一个eclipse的格式化文件,可以帮你把编码转换成符合Hbase的格式。 这个issue还包含有使用这个formatter的指导。
我们在Hbase中使用JUnit4. 如果你希望跑一个最小化的HDFS, ZooKeeper, HBase, 或者 MapReduce 测试,可以checkoutHBaseTestingUtility
. Alex Baranau of Sematext 阐述了怎么使用它HBase Case-Study: Using HBaseTestingUtility for Local Testing and Development(2010).
Table of Contents
关于HBase 和 MapReduce详见 javadocs. 下面是一些附加的帮助文档.
当 MapReduce job的HBase table 使用TableInputFormat为数据源格式的时候,他的splitter会给这个table的每个region一个map。因此,如果一个table有100个region,就有100个map-tasks,不论需要scan多少个column families 。
要想使HBase作为MapReduce的source,Job需要使用TableMapReduceUtil来配置,如下所示...
Job job = ...; Scan scan = new Scan(); scan.setCaching(500); // 1 is the default in Scan, which will be bad for MapReduce jobs scan.setCacheBlocks(false); // Now set other scan attrs ... TableMapReduceUtil.initTableMapperJob( tableName, // input HBase table name scan, // Scan instance to control CF and attribute selection MyMapper.class, // mapper Text.class, // reducer key LongWritable.class, // reducer value job // job instance );
...mapper需要继承于TableMapper...
public class MyMapper extends TableMapper<Text, LongWritable> { public void map(ImmutableBytesWritable row, Result value, Context context) throws InterruptedException, IOException { // process data for the row from the Result instance.
尽管现有的框架允许一个HBase table作为一个MapReduce job的输入,其他的Hbase table可以同时作为普通的表被访问。例如在一个MapReduce的job中,可以在Mapper的setup方法中创建HTable实例。
public class MyMapper extends TableMapper<Text, LongWritable> { private HTable myOtherTable; @Override public void setup(Context context) { myOtherTable = new HTable("myOtherTable"); }
Table of Contents
有一个关于NSQL数据库的优点和确定的介绍,No Relation: The Mixed Blessings of Non-Relational Databases. 推荐看一看.
可以使用HBaseAdmin或者Chapter4,The HBase Shell来创建和编辑Hbase的schemas
现在Hbase并不能很好的处理两个或者三个以上的column families,所以尽量让你的column families数量少一些。目前,flush和compaction操作是针对一个Region。所以当一个column family操作大量数据的时候会引发一个flush。那些不相关的column families也有进行flush操作,尽管他们没有操作多少数据。Compaction操作现在是根据一个column family下的全部文件的数量触发的,而不是根据文件大小触发的。当很多的column families在flush和compaction时,会造成很多没用的I/O负载(要想解决这个问题,需要将flush和compaction操作只针对一个column family)
尽量在你的应用中使用一个Column family。只有你的所有查询操作只访问一个column family的时候,可以引入第二个和第三个column family.例如,你有两个column family,但你查询的时候总是访问其中的一个,从来不会两个一起访问。
在Tom White的Hadoop: The Definitive Guide一书中,有一个章节描述了一个值得注意的问题:在一个集群中,一个导入数据的进程一动不动,所以的client都在等待一个region(就是一个节点),过了一会后,变成了下一个region...如果使用了单调递增或者时序的key就会造成这样的问题。详情可以参见IKai画的漫画monotonically increasing values are bad。使用了顺序的key会将本没有顺序的数据变得有顺序,把负载压在一台机器上。所以要尽量避免时间戳或者(e.g. 1, 2, 3)这样的key。
如果你需要导入时间顺序的文件(如log)到Hbase中,可以学习OpenTSDB的做法。他有一个页面来描述他的schema.OpenTSDB的Key的格式是[metric_type][event_timestamp],乍一看,似乎违背了不将timestamp做key的建议,但是他并没有将timestamp作为key的一个关键位置,有成百上千的metric_type就足够将压力分散到各个region了。
在Hbase中,值是作为一个cell保存在系统的中的,要定位一个cell,需要row,column name和timestamp.通常情况下,如果你的row和column的名字要是太大(甚至比value的大小还要大)的话,你可能会遇到一些有趣的情况。例如Marc Limotte 在HBASE-3551(recommended!)尾部提到的现象。在Hbase的存储文件Section12.3.4.2, “StoreFile (HFile)”中,有一个索引用来方便value的随机访问,但是访问一个cell的坐标要是太大的话,会占用很大的内存,这个索引会被用尽。所以要想解决,可以设置一个更大的block size,当然也可以使用更小的column name `
行的版本的数量是HColumnDescriptor设置的,每个column family可以单独设置,默认是3.这个设置是很重要的,在Chapter11,数据模型有描述,因为Hbase是不会去覆盖一个值的,他只会在后面在追加写,用timestamp来区分、过早的版本会在执行major compaction的时候删除。这个版本的值可以根据具体的应用增加减少。
Table of Contents
hbase.regionserver.blockCacheCount
hbase.regionserver.blockCacheFree
hbase.regionserver.blockCacheHitRatio
hbase.regionserver.blockCacheSize
hbase.regionserver.compactionQueueSize
hbase.regionserver.fsReadLatency_avg_time
hbase.regionserver.fsReadLatency_num_ops
hbase.regionserver.fsSyncLatency_avg_time
hbase.regionserver.fsSyncLatency_num_ops
hbase.regionserver.fsWriteLatency_avg_time
hbase.regionserver.fsWriteLatency_num_ops
hbase.regionserver.memstoreSizeMB
hbase.regionserver.regions
hbase.regionserver.requests
hbase.regionserver.storeFileIndexSizeMB
hbase.regionserver.stores
hbase.regionserver.storeFiles
参见Metrics可以获得一个enable Metrics emission的指导。
Block cache 命中率(0 到 100). TODO: 描述当cacheBlocks=false时对这个值得影响
读写请求的全部数量。请求是指RegionServer的RPC数量,因此一次Get一个情况,一个带缓存的Scan也是一个请求。一个批量load是一个Hfile一个请求。
RegionServer打开的stores数量。一个stores对应一个column family。例如,一个表有3个region在这个RegionServer上,对应一个 column family就会有3个store.
参见跨集群复制.
Table of Contents
简单来说,应用程序是以表的方式在Hbase存储数据的。表是由行和列构成的,所以的列是从属于某一个column family的。行和列的交叉点称之为cell,cell是版本化的。cell的内容是不可分割的字节数组。
表的row key也是一段字节数组,所以任何东西都可以保存进去,不论是字符串或者数字。Hbase的表是按key排序的,排序方式之针对字节的。所以的表都必须要有主键-key.
下面 是根据BigTable论文稍加修改的例子。 有一个名为webtable
的表,包含两个column family:contents
和anchor
.在这个例子里面,anchor
有两个列 (anchor:cssnsi.com
,anchor:my.look.ca
),contents
仅有一列(contents:html
)
列名
一个列名是有它的column family前缀和qualifier连接而成。例如列contents:html是column familycontents
加冒号(:
)加qualifierhtml
组成的。
Table11.1.表webtable
"com.cnn.www" | t9 |
anchor:cnnsi.com = "CNN" |
|
"com.cnn.www" | t8 |
anchor:my.look.ca = "CNN.com" |
|
"com.cnn.www" | t6 |
contents:html = "<html>..." |
|
"com.cnn.www" | t5 |
contents:html = "<html>..." |
|
"com.cnn.www" | t3 |
contents:html = "<html>..." |
尽管在概念视图里,表可以被看成是一个稀疏的行的集合。但在物理上,它的是区分column family 存储的。新的columns可以不经过声明直接加入一个column family.
Table11.2.ColumnFamilyanchor
"com.cnn.www" | t9 |
anchor:cnnsi.com = "CNN" |
"com.cnn.www" | t8 |
anchor:my.look.ca = "CNN.com" |
Table11.3.ColumnFamilycontents
"com.cnn.www" | t6 |
contents:html = "<html>..." |
"com.cnn.www" | t5 |
contents:html = "<html>..." |
"com.cnn.www" | t3 |
contents:html = "<html>..." |
值得注意的是在上面的概念视图中空白cell在物理上是不存储的,因为根本没有必要存储。因此若一个请求为要获取t8
时间的contents:html
,他的结果就是空。相似的,若请求为获取t9
时间的anchor:my.look.ca
,结果也是空。但是,如果不指明时间,将会返回最新时间的行,每个最新的都会返回。例如,如果请求为获取row key为"com.cnn.www",没有指明时间戳的话,活动的结果是t6
下的contents:html,t9
下的anchor:cnnsi.com
和t8
下anchor:my.look.ca
。
在Hbase是column family一些列的集合。一个column family所有列成员是有着相同的前缀。比如,列courses:history和courses:math都是 column familycourses的成员.冒号(:)是column family的分隔符,用来区分前缀和列名。column 前缀必须是可打印的字符,剩下的部分(称为qualify),可以又任意字节数组组成。column family必须在表建立的时候声明。column就不需要了,随时可以新建。
在物理上,一个的column family成员在文件系统上都是存储在一起。因为存储优化都是针对column family级别的,这就意味着,一个colimn family的所有成员的是用相同的方式访问的。
一个{row, column, version}元组是Hbase中的一个cell
.但是有可能会有很多的cell的row和column是相同的,可以使用version来区分不同的cell.
rows和column key是用字节数组表示的,version则是用一个长整型表示。这个long的值使用java.util.Date.getTime()
或者System.currentTimeMillis()
产生的。这就意味着他的含义是“当前时间和1970-01-01 UTC的时间差,单位毫秒。”
在Hbase中,版本是按倒序排列的,因此当读取这个文件的时候,最先找到的是最近的版本。
有些人不是很理解Hbase的cell
意思。一个常见的问题是:
下面我们介绍下在Hbase中版本是如何工作的。[15].
在这一章我们来仔细看看在Hbase的各个主要操作中版本起到了什么作用。
Gets实在Scan的基础上实现的。可以详细参见下面的讨论Get同样可以用Scan来描述.
默认情况下,如果你没有指定版本,当你使用Get
操作的时候,会返回最近版本的Cell(该Cell可能是最新写入的,但不能保证)。默认的操作可以这样修改:
-
如果想要返回返回两个以上的把版本,参见Get.setMaxVersions()
-
如果想要返回的版本不只是最近的,参见Get.setTimeRange()
要向查询的最新版本要小于或等于给定的这个值,这就意味着给定的'最近'的值可以是某一个时间点。可以使用0到你想要的时间来设置,还要把max versions设置为1.
下面的Get操作会只获得最新的一个版本。
Get get = new Get(Bytes.toBytes("row1")); Result r = htable.get(get); byte[] b = r.getValue(Bytes.toBytes("cf"), Bytes.toBytes("attr")); // returns current version of value
下面的Get操作会获得最近的3个版本。
Get get = new Get(Bytes.toBytes("row1")); get.setMaxVersions(3); // will return last 3 versions of row Result r = htable.get(get); byte[] b = r.getValue(Bytes.toBytes("cf"), Bytes.toBytes("attr")); // returns current version of value List<KeyValue> kv = r.getColumn(Bytes.toBytes("cf"), Bytes.toBytes("attr")); // returns all versions of this column
一个Put操作会给一个cell
,创建一个版本,默认使用当前时间戳,当然你也可以自己设置时间戳。这就意味着你可以把时间设置在过去或者未来,或者随意使用一个Long值。
要想覆盖一个现有的值,就意味着你的row,column和版本必须完全相等。
下面的Put操作不指明版本,所以Hbase会用当前时间作为版本。
Put put = new Put(Bytes.toBytes(row)); put.add(Bytes.toBytes("cf"), Bytes.toBytes("attr1"), Bytes.toBytes( data)); htable.put(put);
当你进行delete操作的是,有两种方式来确定要删除的版本。
-
删除所有比当前早的版本。
-
删除指定的版本。
一个删除操作可以删除一行,也可以是一个column family,或者仅仅删除一个column。你也可以删除指明的一个版本。若你没有指明,默认情况下是删除比当前时间早的版本。
删除操作的实现是创建一个删除标记。例如,我们想要删除一个版本,或者默认是currentTimeMillis
。就意味着“删除比这个版本更早的所有版本”.Hbase不会去改那些数据,数据不会立即从文件中删除。他使用删除标记来屏蔽掉这些值。[16]若你知道的版本比数据中的版本晚,就意味着这一行中的所有数据都会被删除。
关于版本还有一些bug(或者称之为未实现的功能),计划在下个版本实现。
删除标记操作可能会标记之后put的数据。[17].需要值得注意的是,当写下一个删除标记后,只有下一个major compaction操作发起之后,这个删除标记才会消失。设想一下,当你写下一个删除标记-“删除所有<= 时间T的数据”。但之后,你又执行了一个Put操作,版本<= T。这样就算这个Put发生在删除之后,他的数据也算是打上了删除标记。这个Put并不会失败,但是你需要注意的是这个操作没有任何作用。只有一个major compaction执行只有,一切才会恢复正常。如果你的Put操作一直使用升序的版本,这个错误就不会发生。但是也有可能出现这样的情况,你删除之后,
“设想一下,你一个cell有三个版本t1,t2和t3。你的maximun-version设置是2.当你请求获取全部版本的时候,只会返回两个,t2和t3。如果你将t2和t3删除,就会返回t1。但是如果在删除之前,发生了major compaction操作,那么什么值都不好返回了。[18]”
[13]目前,只有最新的那个是可以获取到的。.
[14]可以
[15]SeeHBASE-2406for discussion of HBase versions.Bending time in HBasemakes for a good read on the version, or time, dimension in HBase. It has more detail on versioning than is provided here. As of this writing, the limiitationOverwriting values at existing timestampsmentioned in the article no longer holds in HBase. This section is basically a synopsis of this article by Bruno Dumon.
[16]当Hbase执行一次major compaction,标记删除的数据会被实际的删除,删除标记也会被删除。
[18]SeeGarbage CollectioninBending time in HBase
Table of Contents
Hbase客户端的HTable类负责寻找相应的RegionServers来处理行。他是先查询.META.
和-ROOT
目录表。然后再确定region的位置。定位到所需要的区域后,客户端会直接去访问相应的region(不经过master),发起读写请求。这些信息会缓存在客户端,这样就不用每发起一个请求就去查一下。如果一个region已经废弃(原因可能是master load balance或者RegionServer死了),客户端就会重新进行这个步骤,决定要去访问的新的地址。
管理集群操作是经由HBaseAdmin发起的
关于连接的配置信息,参见Section3.7, “连接Hbase集群的客户端配置和依赖”.
HTable不是线程安全的。建议使用同一个HBaseConfiguration实例来创建HTable实例。这样可以共享ZooKeeper和socket实例。例如,最好这样做:
HBaseConfiguration conf = HBaseConfiguration.create(); HTable table1 = new HTable(conf, "myTable"); HTable table2 = new HTable(conf, "myTable");
而不是这样:
HBaseConfiguration conf1 = HBaseConfiguration.create(); HTable table1 = new HTable(conf1, "myTable"); HBaseConfiguration conf2 = HBaseConfiguration.create(); HTable table2 = new HTable(conf2, "myTable");
如果你想知道的更多的关于Hbase客户端connection的知识,可以参照:HConnectionManager.
若关闭了HTable中的Section13.6.1, “AutoFlush”,Put
操作会在写缓冲填满的时候向RegionServer发起请求。默认情况下,写缓冲是2MB.在Htable被废弃之前,要调用close()
,flushCommits()
操作,这样写缓冲就不会丢失。
要想更好的细粒度控制Put
或Delete
的批量操作,可以参考Htable中的batch方法.
本章节都是再讲Regions.
Note
Regions是由每个Column Family的Store组成。
Region的大小是一个棘手的问题,需要考量如下几个因素。
-
Regions是可用性和分布式的最基本单位
-
HBase通过将region切分在许多机器上实现分布式。也就是说,你如果有16GB的数据,只分了2个region, 你却有20台机器,有18台就浪费了。
-
region数目太多就会造成性能下降,现在比以前好多了。但是对于同样大小的数据,700个region比3000个要好。
-
region数目太少就会妨碍可扩展性,降低并行能力。有的时候导致压力不够分散。这就是为什么,你向一个10节点的Hbase集群导入200MB的数据,大部分的节点是idle的。
-
RegionServer中1个region和10个region索引需要的内存量没有太多的差别。
最好是使用默认的配置,可以把热的表配小一点(或者受到split热点的region把压力分散到集群中)。如果你的cell的大小比较大(100KB或更大),就可以把region的大小调到1GB。
RegionServer的Splits操作是不可见的,因为Master不会参与其中。RegionServer切割region的步骤是,先将该region下线,然后切割,将其子region加入到元信息中,再将他们加入到原本的RegionServer中,最后汇报Master.参见Section3.6.6, “管理 Splitting”来手动管理切割操作。
一个Store包含了一个MemStore和若干个StoreFile(HFile).一个Store可以定位到一个column family中的一个region.
MemStores是Store中的内存Store,可以进行修改操作。修改的内容是KeyValues。当flush的是,现有的memstore会生成快照,然后清空。在执行快照的时候,Hbase会继续接收修改操作,保存在memstore外面,直到快照完成。
hfile文件格式是基于BigTable [2006]论文中的SSTable。构建在Hadoop的tfile上面(直接使用了tfile的单元测试和压缩工具)。 Schubert Zhang's的博客HFile: A Block-Indexed File Format to Store Sorted Key-Value Pairs详细介绍了Hbases的hfile。Matteo Bertozzi也做了详细的介绍HBase I/O: HFile。
要想看到hfile内容的文本化版本,你可以使用org.apache.hadoop.hbase.io.hfile.HFile
工具。可以这样用:
$ ${HBASE_HOME}/bin/hbase org.apache.hadoop.hbase.io.hfile.HFile
例如,你想看文件hdfs://10.81.47.41:9000/hbase/TEST/1418428042/DSMP/4759508618286845475
的内容, 就执行如下的命令:
$ ${HBASE_HOME}/bin/hbase org.apache.hadoop.hbase.io.hfile.HFile -v -f hdfs://10.81.47.41:9000/hbase/TEST/1418428042/DSMP/4759508618286845475
如果你没有输入-v,就仅仅能看到一个hfile的汇总信息。其他功能的用法可以看HFile
的文档。
有两种类型的压缩:minor和major。minor压缩通常会将数个小的相邻的文件合并成一个大的。Minor不会删除打上删除标记的数据,也不会删除过期的数据,Major压缩会删除过期的数据。有些时候minor压缩就会将一个store中的全部文件压缩,实际上这个时候他本身就是一个major压缩。对于一个minor压缩是如何压缩的,可以参见ascii diagram in the Store source code.
在执行一个major压缩之后,一个store只会有一个sotrefile,通常情况下这样可以提供性能。注意:major压缩将会将store中的数据全部重写,在一个负载很大的系统中,这个操作是很伤的。所以在大型系统中,通常会自己Section3.6.6, “管理 Splitting”。
每个RegionServer会将更新(Puts, Deletes) 先记录到Write Ahead Log中(WAL),然后将其更新在Section12.3.4, “Store”的Section12.3.4.1, “MemStore”里面。这样就保证了Hbase的写的可靠性。如果没有WAL,当RegionServer宕掉的时候,MemStore还没有flush,StoreFile还没有保存,数据就会丢失。HLog是Hbase的一个WAL实现,一个RegionServer有一个HLog实例。
WAL 保存在HDFS 的/hbase/.logs/
里面,每个region一个文件。
要想知道更多的信息,可以访问维基百科Write-Ahead Log的文章.
[19]SeeHBASE-2958 When hbase.hlog.split.skip.errors is set to false, we fail the split but thats it. We need to do more than just fail split if this flag is set.
[20]要想知道背景知识, 参见HBASE-2643 Figure how to deal with eof splitting logs
Table of Contents
hbase.regionserver.handler.count
hfile.block.cache.size
hbase.regionserver.global.memstore.upperLimit
hbase.regionserver.global.memstore.lowerLimit
hbase.hstore.blockingStoreFiles
hbase.hregion.memstore.block.multiplier
可以从wiki Performance Tuning看起。这个文档讲了一些主要的影响性能的方面:RAM, 压缩, JVM 设置, 等等。然后,可以看看下面的补充内容。
打开RPC-level日志
在RegionServer打开RPC-level的日志对于深度的优化是有好处的。一旦打开,日志将喷涌而出。所以不建议长时间打开,只能看一小段时间。要想启用RPC-level的职责,可以使用RegionServer UI点击Log Level。将org.apache.hadoop.ipc
的日志级别设为DEBUG
。然后tail RegionServer的日志,进行分析。
要想关闭,只要把日志级别设为INFO
就可以了.
在这个PPTAvoiding Full GCs with MemStore-Local Allocation Buffers, Todd Lipcon描述列在Hbase中常见的两种stop-the-world的GC操作,尤其是在loading的时候。一种是CMS失败的模式(译者注:CMS是一种GC的算法),另一种是老一代的堆碎片导致的。要想定位第一种,只要将CMS执行的时间提前就可以了,加入-XX:CMSInitiatingOccupancyFraction
参数,把值调低。可以先从60%和70%开始(这个值调的越低,触发的GC次数就越多,消耗的CPU时间就越长)。要想定位第二种错误,Todd加入了一个实验性的功能,在Hbase 0.90.x中这个是要明确指定的(在0.92.x中,这个是默认项),将你的Configuration
中的hbase.hregion.memstore.mslab.enabled
设置为true。详细信息,可以看这个PPT.
Hbase中region的数目可以根据Section3.6.5, “更大的 Regions”调整.也可以参见Section12.3.1, “Region大小”
对于大型的系统,你需要考虑管理压缩和分割
生产环境中的系统需要在column family的定义中使用Section3.6.4, “LZO 压缩”之类的压缩。
参见hbase.regionserver.handler.count
.这个参数的本质是设置一个RegsionServer可以同时处理多少请求。 如果定的太高,吞吐量反而会降低;如果定的太低,请求会被阻塞,得不到响应。你可以打开RPC-level日志读Log,来决定对于你的集群什么值是合适的。(请求队列也是会消耗内存的)
参见hfile.block.cache.size
. 对于RegionServer进程的内存设置。
参见hbase.regionserver.global.memstore.upperLimit
. 这个内存设置是根据RegionServer的需要来设定。
参见hbase.regionserver.global.memstore.lowerLimit
. 这个内存设置是根据RegionServer的需要来设定。
参见hbase.hstore.blockingStoreFiles
. 如果在RegionServer的Log中block,提高这个值是有帮助的。
参见hbase.hregion.memstore.block.multiplier
. 如果有足够的RAM,提高这个值。
如果你的数据总是往一个region写。你可以再看看处理时序数据这一章.
如果可以的话,尽量使用批量导入工具,参见Bulk Loads.否则就要详细看看下面的内容。
默认情况下Hbase创建Table会新建一个region。执行批量导入,意味着所有的client会写入这个region,直到这个region足够大,以至于分裂。一个有效的提高批量导入的性能的方式,是预创建空的region。最好稍保守一点,因为过多的region会实实在在的降低性能。下面是一个预创建region的例子。 (注意:这个例子里需要根据应用的key进行调整。):
public static boolean createTable(HBaseAdmin admin, HTableDescriptor table, byte[][] splits) throws IOException { try { admin.createTable( table, splits ); return true; } catch (TableExistsException e) { logger.info("table " + table.getNameAsString() + " already exists"); // the table already exists... return false; } } public static byte[][] getHexSplits(String startKey, String endKey, int numRegions) { byte[][] splits = new byte[numRegions-1][]; BigInteger lowestKey = new BigInteger(startKey, 16); BigInteger highestKey = new BigInteger(endKey, 16); BigInteger range = highestKey.subtract(lowestKey); BigInteger regionIncrement = range.divide(BigInteger.valueOf(numRegions)); lowestKey = lowestKey.add(regionIncrement); for(int i=0; i < numRegions-1;i++) { BigInteger key = lowestKey.add(regionIncrement.multiply(BigInteger.valueOf(i))); byte[] b = String.format("%016x", key).getBytes(); splits[i] = b; } return splits; }
当你进行大量的Put的时候,要确认你的HTable的setAutoFlush是关闭着的。否则的话,每执行一个Put就要想RegionServer发一个请求。通过htable.add(Put)
和htable.add( <List> Put)
来将Put添加到写缓冲中。如果autoFlush = false
,要等到写缓冲都填满的时候才会发起请求。要想显式的发起请求,可以调用flushCommits
。在HTable
实例上进行的close
操作也会发起flushCommits
如果Hbase的输入源是一个MapReduce Job,要确保输入的Scan的setCaching
值要比默认值0要大。使用默认值就意味着map-task每一行都会去请求一下region-server。可以把这个值设为500,这样就可以一次传输500行。当然这也是需要权衡的,过大的值会同时消耗客户端和服务端很大的内存,不是越大越好。
当Scan用来处理大量的行的时候(尤其是作为MapReduce的输入),要注意的是选择了什么字段。如果调用了scan.addFamily
,这个column family的所有属性都会返回。如果只是想过滤其中的一小部分,就指定那几个column,否则就会造成很大浪费,影响性能。
这与其说是提高性能,倒不如说是避免发生性能问题。如果你忘记了关闭ResultScanners,会导致RegionServer出现问题。所以一定要把ResultScanner包含在try/catch 块中...
Scan scan = new Scan(); // set attrs... ResultScanner rs = htable.getScanner(scan); try { for (Result r = rs.next(); r != null; r = rs.next()) { // process result... } finally { rs.close(); // always close the ResultScanner! } htable.close();
Scan实例可以在RegionServer中使用块缓存,可以由setCacheBlocks
方法控制。如果Scan是MapReduce的输入源,要将这个值设置为false
。对于经常读到的行,就建议使用块缓冲。
当scan一个表的时候, 如果仅仅需要row key(不需要no families, qualifiers, values 和 timestamps),在加入FilterList的时候,要使用Scanner的setFilter
方法的时候,要填上MUST_PASS_ALL
操作参数(译者注:相当于And操作符)。一个FilterList要包含一个FirstKeyOnlyFilter和一个KeyOnlyFilter.通过这样的filter组合,就算在最坏的情况下,RegionServer只会从磁盘读一个值,同时最小化客户端的网络带宽占用。
Table of Contents
HColumnDescriptor
配置io.hfile.bloom.enabled
全局关闭开关io.hfile.bloom.error.rate
io.hfile.bloom.max.fold
StoreFile
中的BloomFilter,FileInfo
数据结构StoreFile
元数据中的BloomFilter entriesBloom filters 是在HBase-1200 Add bloomfilters上面开发的.[21][22](译者注:Bloom Filter是一个算法,可以用来快速确认一个Row Key或者值是否在一个Hfile里面。)
可以在column family的选项的配置Blooms.可以通过Hbase Shell,也可以用Java代码操作org.apache.hadoop.hbase.HColumnDescriptor
.
使用HColumnDescriptor.setBloomFilterType(NONE | ROW | ROWCOL)
来控制每个column family的Blooms这种。默认值是NONE
,如果值是ROW
,就会在插入的时候去Hash这个row,加入到Bloom中去。如果值是ROWCOL
,就Hash这个row,column family和column family qualifer。(译者注,ROW是哈希row key)
当有些东西出错的时候,Configuration
中的io.hfile.bloom.enabled
是一个关闭的开关。 默认是true
.
io.hfile.bloom.error.rate
= 平均错误率。默认是 1%.减少一半(如 .5%),就意味着每个bloom entry加一个bit.
io.hfile.bloom.max.fold
= 保证最低的fold率。大多数人不该修改这个值,默认是7,就是说可以折叠到原本大小的1/128。参见Development Process中的文档BloomFilters in HBase获得更多关于这个配置的信息。
Bloom filters在StoreFile
加入了一个entry.包括 一般的FileInfo
数据结构和两个额外entries到StoreFile
的元数据部分中。
[21]For description of the development process -- why static blooms rather than dynamic -- and for an overview of the unique properties that pertain to blooms in HBase, as well as possible future directions, see theDevelopment Processsection of the documentBloomFilters in HBaseattached toHBase-1200.
[22]The bloom filters described here are actually version two of blooms in HBase. In versions up to 0.19.x, HBase had a dynamic bloom option based on work done by theEuropean Commission One-Lab Project 034819. The core of the HBase bloom work was later pulled up into Hadoop to implement org.apache.hadoop.io.BloomMapFile. Version 1 of HBase blooms never worked that well. Version 2 is a rewrite from scratch though again it starts with the one-lab work.
Table of Contents
首先可以看看master的log。通常情况下,他总是一行一行的重复信息。如果不是这样,说明有问题,可以Google或是用search-hadoop.com来搜索遇到的exception。
一个错误通常不是单独出现在Hbase中的,通常是某一个地方发生了异常,然后对其他的地方发生影响。到处都是exception和stack straces。遇到这样的错误,最好的办法是查日志,找到最初的异常。例如Region会在abort的时候打印一下信息。Grep这个Dump就有可能找到最初的异常信息。
RegionServer的自杀是很“正常”的。当一些事情发生错误的,他们就会自杀。如果ulimit和xcievers(最重要的两个设定,详见Section1.3.1.6, “ulimit
和nproc
”)没有修改,HDFS将无法运转正常,在HBase看来,HDFS死掉了。假想一下,你的MySQL突然无法访问它的文件系统,他会怎么做。同样的事情会发生在Hbase和HDFS上。还有一个造成RegionServer切腹(译者注:竟然用日文词)自杀的常见的原因是,他们执行了一个长时间的GC操作,这个时间超过了ZooKeeper的session timeout。关于GC停顿的详细信息,参见Todd Lipcon的3 part blog postby Todd Lipcon 和上面的Section13.1.1.1, “长时间GC停顿”.
重要日志的位置( <user>是启动服务的用户,<hostname> 是机器的名字)
NameNode:$HADOOP_HOME/logs/hadoop-<user>-namenode-<hostname>.log
DataNode:$HADOOP_HOME/logs/hadoop-<user>-datanode-<hostname>.log
JobTracker:$HADOOP_HOME/logs/hadoop-<user>-jobtracker-<hostname>.log
TaskTracker:$HADOOP_HOME/logs/hadoop-<user>-jobtracker-<hostname>.log
HMaster:$HBASE_HOME/logs/hbase-<user>-master-<hostname>.log
RegionServer:$HBASE_HOME/logs/hbase-<user>-regionserver-<hostname>.log
ZooKeeper:TODO
对于单节点模式,Log都会在一台机器上,但是对于生产环境,都会运行在一个集群上。
NameNode的日志在NameNode server上。HBase Master 通常也运行在NameNode server上,ZooKeeper通常也是这样。
对于小一点的机器,JobTracker也通常运行在NameNode server上面。
search-hadoop.com将所有的 mailing lists 和JIRA建立了索引。用它来找Hadoop/HBase的问题很方便。
tail
是一个命令行工具,可以用来看日志的尾巴。加入的"-f"参数后,就会在数据更新的时候自己刷新。用它来看日志很方便。例如,一个机器需要花很多时间来启动或关闭,你可以tail他的master log(也可以是region server的log)。
top
是一个很重要的工具来看你的机器各个进程的资源占用情况。下面是一个生产环境的例子:
top - 14:46:59 up 39 days, 11:55, 1 user, load average: 3.75, 3.57, 3.84 Tasks: 309 total, 1 running, 308 sleeping, 0 stopped, 0 zombie Cpu(s): 4.5%us, 1.6%sy, 0.0%ni, 91.7%id, 1.4%wa, 0.1%hi, 0.6%si, 0.0%st Mem: 24414432k total, 24296956k used, 117476k free, 7196k buffers Swap: 16008732k total, 14348k used, 15994384k free, 11106908k cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 15558 hadoop 18 -2 3292m 2.4g 3556 S 79 10.4 6523:52 java 13268 hadoop 18 -2 8967m 8.2g 4104 S 21 35.1 5170:30 java 8895 hadoop 18 -2 1581m 497m 3420 S 11 2.1 4002:32 java …
这里你可以看到系统的load average在最近5分钟是3.75,意思就是说这5分钟里面平均有3.75个线程在CPU时间的等待队列里面。通常来说,最完美的情况是这个值和CPU和核数相等,比这个值低意味着资源闲置,比这个值高就是过载了。这是一个重要的概念,要想理解的更多,可以看这篇文章http://www.linuxjournal.com/article/9001.
处理负载,我们可以看到系统已经几乎使用了他的全部RAM,其中大部分都是用于OS cache(这是一件好事).Swap只使用了一点点KB,这正是我们期望的,如果数值很高的话,就意味着在进行交换,这对Java程序的性能是致命的。另一种检测交换的方法是看Load average是否过高(load average过高还可能是磁盘损坏或者其它什么原因导致的)。
默认情况下进程列表不是很有用,我们可以看到3个Java进程使用了111%的CPU。要想知道哪个进程是什么,可以输入"c",每一行就会扩展信息。输入“1”可以显示CPU的每个核的具体状况。
jps
是JDK集成的一个工具,可以用来看当前用户的Java进程id。(如果是root,可以看到所有用户的id),例如:
hadoop@sv4borg12:~$ jps 1322 TaskTracker 17789 HRegionServer 27862 Child 1158 DataNode 25115 HQuorumPeer 2950 Jps 19750 ThriftServer 18776 jmx
按顺序看
- Hadoop TaskTracker,管理本地的Task
- HBase RegionServer,提供region的服务
- Child, 一个 MapReduce task,无法看出详细类型
- Hadoop DataNode, 管理blocks
- HQuorumPeer, ZooKeeper集群的成员
- Jps, 就是这个进程
- ThriftServer, 当thrif启动后,就会有这个进程
- jmx, 这个是本地监控平台的进程。你可以不用这个。
你可以看到这个进程启动是全部命令行信息。
hadoop@sv4borg12:~$ ps aux | grep HRegionServer hadoop 17789 155 35.2 9067824 8604364 ? S<l Mar04 9855:48 /usr/java/jdk1.6.0_14/bin/java -Xmx8000m -XX:+DoEscapeAnalysis -XX:+AggressiveOpts -XX:+UseConcMarkSweepGC -XX:NewSize=64m -XX:MaxNewSize=64m -XX:CMSInitiatingOccupancyFraction=88 -verbose:gc -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -Xloggc:/export1/hadoop/logs/gc-hbase.log -Dcom.sun.management.jmxremote.port=10102 -Dcom.sun.management.jmxremote.authenticate=true -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.password.file=/home/hadoop/hbase/conf/jmxremote.password -Dcom.sun.management.jmxremote -Dhbase.log.dir=/export1/hadoop/logs -Dhbase.log.file=hbase-hadoop-regionserver-sv4borg12.log -Dhbase.home.dir=/home/hadoop/hbase -Dhbase.id.str=hadoop -Dhbase.root.logger=INFO,DRFA -Djava.library.path=/home/hadoop/hbase/lib/native/Linux-amd64-64 -classpath /home/hadoop/hbase/bin/../conf:[many jars]:/home/hadoop/hadoop/conf org.apache.hadoop.hbase.regionserver.HRegionServer start
jstack
是一个最重要(除了看Log)的java工具,可以看到具体的Java进程的在做什么。可以先用Jps看到进程的Id,然后就可以用jstack。他会按线程的创建顺序显示线程的列表,还有这个线程在做什么。下面是例子:
这个主线程是一个RegionServer正在等master返回什么信息。
"regionserver60020" prio=10 tid=0x0000000040ab4000 nid=0x45cf waiting on condition [0x00007f16b6a96000..0x00007f16b6a96a70] java.lang.Thread.State: TIMED_WAITING (parking) at sun.misc.Unsafe.park(Native Method) - parking to wait for <0x00007f16cd5c2f30> (a java.util.concurrent.locks.AbstractQueuedSynchronizer$ConditionObject) at java.util.concurrent.locks.LockSupport.parkNanos(LockSupport.java:198) at java.util.concurrent.locks.AbstractQueuedSynchronizer$ConditionObject.awaitNanos(AbstractQueuedSynchronizer.java:1963) at java.util.concurrent.LinkedBlockingQueue.poll(LinkedBlockingQueue.java:395) at org.apache.hadoop.hbase.regionserver.HRegionServer.run(HRegionServer.java:647) at java.lang.Thread.run(Thread.java:619) The MemStore flusher thread that is currently flushing to a file: "regionserver60020.cacheFlusher" daemon prio=10 tid=0x0000000040f4e000 nid=0x45eb in Object.wait() [0x00007f16b5b86000..0x00007f16b5b87af0] java.lang.Thread.State: WAITING (on object monitor) at java.lang.Object.wait(Native Method) at java.lang.Object.wait(Object.java:485) at org.apache.hadoop.ipc.Client.call(Client.java:803) - locked <0x00007f16cb14b3a8> (a org.apache.hadoop.ipc.Client$Call) at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:221) at $Proxy1.complete(Unknown Source) at sun.reflect.GeneratedMethodAccessor38.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) at java.lang.reflect.Method.invoke(Method.java:597) at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:82) at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:59) at $Proxy1.complete(Unknown Source) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.closeInternal(DFSClient.java:3390) - locked <0x00007f16cb14b470> (a org.apache.hadoop.hdfs.DFSClient$DFSOutputStream) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.close(DFSClient.java:3304) at org.apache.hadoop.fs.FSDataOutputStream$PositionCache.close(FSDataOutputStream.java:61) at org.apache.hadoop.fs.FSDataOutputStream.close(FSDataOutputStream.java:86) at org.apache.hadoop.hbase.io.hfile.HFile$Writer.close(HFile.java:650) at org.apache.hadoop.hbase.regionserver.StoreFile$Writer.close(StoreFile.java:853) at org.apache.hadoop.hbase.regionserver.Store.internalFlushCache(Store.java:467) - locked <0x00007f16d00e6f08> (a java.lang.Object) at org.apache.hadoop.hbase.regionserver.Store.flushCache(Store.java:427) at org.apache.hadoop.hbase.regionserver.Store.access$100(Store.java:80) at org.apache.hadoop.hbase.regionserver.Store$StoreFlusherImpl.flushCache(Store.java:1359) at org.apache.hadoop.hbase.regionserver.HRegion.internalFlushcache(HRegion.java:907) at org.apache.hadoop.hbase.regionserver.HRegion.internalFlushcache(HRegion.java:834) at org.apache.hadoop.hbase.regionserver.HRegion.flushcache(HRegion.java:786) at org.apache.hadoop.hbase.regionserver.MemStoreFlusher.flushRegion(MemStoreFlusher.java:250) at org.apache.hadoop.hbase.regionserver.MemStoreFlusher.flushRegion(MemStoreFlusher.java:224) at org.apache.hadoop.hbase.regionserver.MemStoreFlusher.run(MemStoreFlusher.java:146)
一个处理线程是在等一些东西(例如put, delete, scan...):
"IPC Server handler 16 on 60020" daemon prio=10 tid=0x00007f16b011d800 nid=0x4a5e waiting on condition [0x00007f16afefd000..0x00007f16afefd9f0] java.lang.Thread.State: WAITING (parking) at sun.misc.Unsafe.park(Native Method) - parking to wait for <0x00007f16cd3f8dd8> (a java.util.concurrent.locks.AbstractQueuedSynchronizer$ConditionObject) at java.util.concurrent.locks.LockSupport.park(LockSupport.java:158) at java.util.concurrent.locks.AbstractQueuedSynchronizer$ConditionObject.await(AbstractQueuedSynchronizer.java:1925) at java.util.concurrent.LinkedBlockingQueue.take(LinkedBlockingQueue.java:358) at org.apache.hadoop.hbase.ipc.HBaseServer$Handler.run(HBaseServer.java:1013)
有一个线程正在忙,在递增一个counter(这个阶段是正在创建一个scanner来读最新的值):
"IPC Server handler 66 on 60020" daemon prio=10 tid=0x00007f16b006e800 nid=0x4a90 runnable [0x00007f16acb77000..0x00007f16acb77cf0] java.lang.Thread.State: RUNNABLE at org.apache.hadoop.hbase.regionserver.KeyValueHeap.<init>(KeyValueHeap.java:56) at org.apache.hadoop.hbase.regionserver.StoreScanner.<init>(StoreScanner.java:79) at org.apache.hadoop.hbase.regionserver.Store.getScanner(Store.java:1202) at org.apache.hadoop.hbase.regionserver.HRegion$RegionScanner.<init>(HRegion.java:2209) at org.apache.hadoop.hbase.regionserver.HRegion.instantiateInternalScanner(HRegion.java:1063) at org.apache.hadoop.hbase.regionserver.HRegion.getScanner(HRegion.java:1055) at org.apache.hadoop.hbase.regionserver.HRegion.getScanner(HRegion.java:1039) at org.apache.hadoop.hbase.regionserver.HRegion.getLastIncrement(HRegion.java:2875) at org.apache.hadoop.hbase.regionserver.HRegion.incrementColumnValue(HRegion.java:2978) at org.apache.hadoop.hbase.regionserver.HRegionServer.incrementColumnValue(HRegionServer.java:2433) at sun.reflect.GeneratedMethodAccessor20.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) at java.lang.reflect.Method.invoke(Method.java:597) at org.apache.hadoop.hbase.ipc.HBaseRPC$Server.call(HBaseRPC.java:560) at org.apache.hadoop.hbase.ipc.HBaseServer$Handler.run(HBaseServer.java:1027)
还有一个线程在从HDFS获取数据。
"IPC Client (47) connection to sv4borg9/10.4.24.40:9000 from hadoop" daemon prio=10 tid=0x00007f16a02d0000 nid=0x4fa3 runnable [0x00007f16b517d000..0x00007f16b517dbf0] java.lang.Thread.State: RUNNABLE at sun.nio.ch.EPollArrayWrapper.epollWait(Native Method) at sun.nio.ch.EPollArrayWrapper.poll(EPollArrayWrapper.java:215) at sun.nio.ch.EPollSelectorImpl.doSelect(EPollSelectorImpl.java:65) at sun.nio.ch.SelectorImpl.lockAndDoSelect(SelectorImpl.java:69) - locked <0x00007f17d5b68c00> (a sun.nio.ch.Util$1) - locked <0x00007f17d5b68be8> (a java.util.Collections$UnmodifiableSet) - locked <0x00007f1877959b50> (a sun.nio.ch.EPollSelectorImpl) at sun.nio.ch.SelectorImpl.select(SelectorImpl.java:80) at org.apache.hadoop.net.SocketIOWithTimeout$SelectorPool.select(SocketIOWithTimeout.java:332) at org.apache.hadoop.net.SocketIOWithTimeout.doIO(SocketIOWithTimeout.java:157) at org.apache.hadoop.net.SocketInputStream.read(SocketInputStream.java:155) at org.apache.hadoop.net.SocketInputStream.read(SocketInputStream.java:128) at java.io.FilterInputStream.read(FilterInputStream.java:116) at org.apache.hadoop.ipc.Client$Connection$PingInputStream.read(Client.java:304) at java.io.BufferedInputStream.fill(BufferedInputStream.java:218) at java.io.BufferedInputStream.read(BufferedInputStream.java:237) - locked <0x00007f1808539178> (a java.io.BufferedInputStream) at java.io.DataInputStream.readInt(DataInputStream.java:370) at org.apache.hadoop.ipc.Client$Connection.receiveResponse(Client.java:569) at org.apache.hadoop.ipc.Client$Connection.run(Client.java:477)
这里是一个RegionServer死了,master正在试着恢复。
"LeaseChecker" daemon prio=10 tid=0x00000000407ef800 nid=0x76cd waiting on condition [0x00007f6d0eae2000..0x00007f6d0eae2a70] -- java.lang.Thread.State: WAITING (on object monitor) at java.lang.Object.wait(Native Method) at java.lang.Object.wait(Object.java:485) at org.apache.hadoop.ipc.Client.call(Client.java:726) - locked <0x00007f6d1cd28f80> (a org.apache.hadoop.ipc.Client$Call) at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220) at $Proxy1.recoverBlock(Unknown Source) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.processDatanodeError(DFSClient.java:2636) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.<init>(DFSClient.java:2832) at org.apache.hadoop.hdfs.DFSClient.append(DFSClient.java:529) at org.apache.hadoop.hdfs.DistributedFileSystem.append(DistributedFileSystem.java:186) at org.apache.hadoop.fs.FileSystem.append(FileSystem.java:530) at org.apache.hadoop.hbase.util.FSUtils.recoverFileLease(FSUtils.java:619) at org.apache.hadoop.hbase.regionserver.wal.HLog.splitLog(HLog.java:1322) at org.apache.hadoop.hbase.regionserver.wal.HLog.splitLog(HLog.java:1210) at org.apache.hadoop.hbase.master.HMaster.splitLogAfterStartup(HMaster.java:648) at org.apache.hadoop.hbase.master.HMaster.joinCluster(HMaster.java:572) at org.apache.hadoop.hbase.master.HMaster.run(HMaster.java:503)
OpenTSDB是一个Ganglia的很好的替代品,因为他使用Hbase来存储所有的时序而不需要采样。使用OpenTSDB来监控你的Hbase是一个很好的实践
这里有一个例子,集群正在同时进行上百个compaction,严重影响了IO性能。(TODO: 在这里插入compactionQueueSize的图片)(译者注:囧)
给集群构建一个图表监控是一个很好的实践。包括集群和每台机器。这样就可以快速定位到问题。例如,在StumbleUpon,每个机器有一个图表监控,包括OS和Hbase,涵盖所有的重要的信息。你也可以登录到机器上,获取更多的信息。
因为LZO压缩算法需要在集群中的每台机器都要安装,这是一个启动失败的常见错误。如果你获得了如下信息
11/02/20 01:32:15 ERROR lzo.GPLNativeCodeLoader: Could not load native gpl library java.lang.UnsatisfiedLinkError: no gplcompression in java.library.path at java.lang.ClassLoader.loadLibrary(ClassLoader.java:1734) at java.lang.Runtime.loadLibrary0(Runtime.java:823) at java.lang.System.loadLibrary(System.java:1028)
就意味着你的压缩库出现了问题。参见配置章节的LZO compression configuration.
参见快速入门的章节ulimit and nproc configuration.
这个时常会出现在DataNode的日志中。
参见快速入门章节的xceivers configuration.
参见快速入门章节的ulimit and nproc configuration.
如果你收到了如下的消息
2009-02-24 10:01:33,516 WARN org.apache.hadoop.hbase.util.Sleeper: We slept xxx ms, ten times longer than scheduled: 10000 2009-02-24 10:01:33,516 WARN org.apache.hadoop.hbase.util.Sleeper: We slept xxx ms, ten times longer than scheduled: 15000 2009-02-24 10:01:36,472 WARN org.apache.hadoop.hbase.regionserver.HRegionServer: unable to report to master for xxx milliseconds - retrying
或者看到了全GC压缩操作,你可能正在执行一个全GC。
这个错误有可能是OS的文件句柄溢出,也可能是网络故障导致节点无法访问。
参见快速入门章节ulimit and nproc configuration,检查你的网络。
Table of Contents
HLog
工具这里我们列举一些Hbase管理,分析,修理和Debug的工具。
在Hbase集群上运行hbck
$ ./bin/hbase hbck
这个命令的输出是OK或者INCONSISTENCY. 如果你的集群汇报inconsistencies,加上-details看更多的详细信息。如果inconsistencies,多运行hbck几次,因为inconsistencies可能是暂时的。 (集群正在启动或者region正在split)。加上-fix可以修复inconsistency(这是一个实验性的功能)
HLog
的main方法提供了手动 切割和dump的方法。会把WALs或者splite的结果的内容保存在recovered.edits
目录下
你可以使用
$ ./bin/hbase org.apache.hadoop.hbase.regionserver.wal.HLog --dump hdfs://example.org:9000/hbase/.logs/example.org,60020,1283516293161/10.10.21.10%3A60020.1283973724012
来获得一个WAL文件内容的文本化的Dump。如果返回码部位0,说明文件有错误,所有你可以用这个命令来看文件是否健康,将命令重定向到/dev/null
,检查返回码就可以了。
相似的,你可以将一个log切割,运行如下命令:
$ ./bin/hbase org.apache.hadoop.hbase.regionserver.wal.HLog --split hdfs://example.org:9000/hbase/.logs/example.org,60020,1283516293161/
你可以在Hbase的特定的节点上运行下面的脚本来停止RegionServer:
$ ./bin/hbase-daemon.sh stop regionserver
RegionServer会首先关闭所有的region然后把它自己关闭,在停止的过程中,RegionServer的会向Zookeeper报告说他已经过期了。master会发现RegionServer已经死了,会把它当作崩溃的server来处理。他会将region分配到其他的节点上去。
在下线节点之前要停止Load Balancer
如果在运行load balancer的时候,一个节点要关闭, 则Load Balancer和Master的recovery可能会争夺这个要下线的Regionserver。为了避免这个问题,先将load balancer停止,参见下面的Load Balancer.
RegionServer下线有一个缺点就是其中的Region会有好一会离线。Regions是被按顺序关闭的。如果一个server上有很多region,从第一个region会被下线,到最后一个region被关闭,并且Master确认他已经死了,该region才可以上线,整个过程要花很长时间。在Hbase 0.90.2中,我们加入了一个功能,可以让节点逐渐的摆脱他的负载,最后关闭。HBase 0.90.2加入了graceful_stop.sh
脚本,可以这样用,
$ ./bin/graceful_stop.sh Usage: graceful_stop.sh [--config &conf-dir>] [--restart] [--reload] [--thrift] [--rest] &hostname> thrift If we should stop/start thrift before/after the hbase stop/start rest If we should stop/start rest before/after the hbase stop/start restart If we should restart after graceful stop reload Move offloaded regions back on to the stopped server debug Move offloaded regions back on to the stopped server hostname Hostname of server we are to stop
要下线一台RegionServer可以这样做
$ ./bin/graceful_stop.sh HOSTNAME
这里的HOSTNAME
是RegionServer的host you would decommission.
OnHOSTNAME
传递到graceful_stop.sh
的HOSTNAME
必须和hbase使用的hostname一致,hbase用它来区分RegionServers。可以用master的UI来检查RegionServers的id。通常是hostname,也可能是FQDN。不管Hbase使用的哪一个,你可以将它传到graceful_stop.sh
脚本中去,目前他还不支持使用IP地址来推断hostname。所以使用IP就会发现server不在运行,也没有办法下线了。
graceful_stop.sh
脚本会一个一个将region从RegionServer中移除出去,以减少改RegionServer的负载。他会先移除一个region,然后再将这个region安置到一个新的地方,再移除下一个,直到全部移除。最后graceful_stop.sh
脚本会让RegionServerstop.,Master会注意到RegionServer已经下线了,这个时候所有的region已经重新部署好。RegionServer就可以干干净净的结束,没有WAL日志需要分割。
Load Balancer
当执行graceful_stop脚本的时候,要将Region Load Balancer关掉(否则balancer和下线脚本会在region部署的问题上存在冲突):
hbase(main):001:0> balance_switch false true 0 row(s) in 0.3590 seconds
上面是将balancer关掉,要想开启:
hbase(main):001:0> balance_switch true false 0 row(s) in 0.3590 seconds
你还可以让这个脚本重启一个RegionServer,不改变上面的Region的位置。要想保留数据的位置,你可以依次重启(Rolling Restart),就像这样:
$ for i in `cat conf/regionservers|sort`; do ./bin/graceful_stop.sh --restart --reload --debug $i; done &> /tmp/log.txt &
Tail/tmp/log.txt
来看脚本的运行过程.上面的脚本只对RegionServer进行操作。要确认load balancer已经关掉。还需要在之前更新master。下面是一段依次重启的伪脚本,你可以借鉴它:
-
确认你的版本,保证配置已经rsync到整个集群中。如果版本是0.90.2,需要打上HBASE-3744 和 HBASE-3756两个补丁。
-
运行hbck确保你的集群是一致的
$ ./bin/hbase hbck
当发现不一致的时候,可以修复他。
-
重启Master:
$ ./bin/hbase-daemon.sh stop master; ./bin/hbase-daemon.sh start master
-
关闭region balancer:
$ echo "balance_switch false" | ./bin/hbase
-
在每个RegionServer上运行
graceful_stop.sh
:$ for i in `cat conf/regionservers|sort`; do ./bin/graceful_stop.sh --restart --reload --debug $i; done &> /tmp/log.txt &
如果你在RegionServer还开起来thrift和rest server。还需要加上--thrift or --rest 选项 (参见
graceful_stop.sh
脚本的用法). -
再次重启Master.这会把已经死亡的server列表清空,重新开启balancer.
-
运行 hbck 保证集群是一直的
HBase有一个用来测试压缩新的工具。要想运行它,输入/bin/hbase org.apache.hadoop.hbase.util.CompressionTest
. 就会有提示这个工具的具体用法
如果你的安装错误,就会测试不成功,或者无法启动。可以在你的hbase-site.xml
加上配置hbase.regionserver.codecs
值你需要的codecs。例如,如果hbase.regionserver.codecs
的值是lzo,gz
同时lzo不存在或者没有正确安装, RegionServer在启动的时候会提示配置错误。
当一台新机器加入到集群中的时候,管理员一定要注意,这台新机器有可能要安装特定的压缩解码器。
相对于LZO,GZIP的压缩率更高但是速度更慢。在某些特定情况下,压缩率是优先考量的。Java会使用Java自带的GZIP,除非Hadoop的本地库在CLASSPATH中。在这种情况下,最好使用本地压缩器。(如果本地库不存在,可以在Log看到很多Got brand-new compressor。参见Q:)
C.1. 一般问题 |
|
|
|
Hbase还有其他的FAQs吗? |
|
可以在Hbase的wikiHBase Wiki FAQ和Troubleshooting看到更多的FAQ. |
|
HBase 支持 SQL吗? |
|
不支持。可以通过Hive的SQL-ish来支持,该功能还在开发中。但是Hive是基于MapReduce的,对于低延迟的应用并不适合。参见Chapter11,数据模型,可以看到Hbase客户端的例子。 |
|
HBase是如何工作在HDFS上的? |
|
HDFS是一个为大文件设计的分布式文件系统。他的文档明确说了,它不是一个通用的文件系统,文件不支持快速的记录查找。另一方面,HBase是建立在HDFS之上,并且支持大表快速记录查找(更新)。这有时候会混淆概念。参见Chapter11,数据模型和Chapter12,架构,来了解更多Hbase的目标。 |
|
为什么日志的最后一行是'2011-01-10 12:40:48,407 INFO org.apache.hadoop.io.compress.CodecPool: Got brand-new compressor'? |
|
因为我们没有使用本地的压缩类库。参见HBASE-1900 Put back native support when hadoop 0.21 is released.将Hadoop的本地类库拷贝到Hbase下面(或者做软链接)就可以了 |
|
C.2. EC2 |
|
为什么我的连接EC2上的集群的远程Java连接不能工作? |
|
C.3. 构建 HBase |
|
当我build的时候,为什么遇到 |
|
忽略他。这不是一个错误。这是officially ugly. |
|
C.4. Runtime |
|
|
|
为什么我在Hbase loading的是看到了停顿 |
|
如果启用了压缩,参见用户列表Long client pauses with compression. |
|
为什么我的RegionServer会突然挂住? |
|
如果你使用了一个老式的JVM (< 1.6.0_u21?)?你可以看看thread dump,是不是线程都BLOCKED但是没有一个hold着锁。参见HBASE 3622 Deadlock in HBaseServer (JVM bug?). 在Hbase的 |
|
为什么我看到RegionServer的数量是实际的两倍。一半使用域名,一半使用IP。 |
|
修正你的DNS。在Hbase 0.92.x之前的版本,反向DNS和正向DNS需要返回一致。参见HBASE 3431 Regionserver is not using the name given it by the master; double entry in master listing of servers获得详细信息. |
|
C.5. 我如何在Hbase中建立 |
|
二级索引? |
|
对于在Hbase中维护一个二级索引的问题,有一个用户的指导。参见David Butler在HBase, mail # user - Stargate+hbase的信息。 |
AppendixD.YCSB: 雅虎云服务 测试和Hbase
TODO: YCSB不能很多的增加集群负载.
TODO: 如果给Hbase安装
Ted Dunning重做了YCSV,这个是用maven管理了,加入了核实工作量的功能。参见Ted Dunning's YCSB.
H
L
N
U
V
X
Z
相关推荐
这份“HBase官方文档中文版”提供了全面深入的HBase知识,帮助用户理解和掌握如何在大数据场景下有效地使用HBase。 一、HBase概述 HBase设计目标是提供大规模数据的实时读写能力,它运行在Hadoop之上,利用HDFS作为...
HBase是一个分布式的、面向列的数据库,构建在Apache Hadoop和Apache ZooKeeper之...综上所述,HBase的官方文档涵盖了从基础操作、集群配置到高级主题如性能优化和故障处理的广泛内容,这些都是掌握HBase技术的关键点。
这份名为“HBase_官方文档(中文版本).zip”的压缩包提供了HBase的中文官方文档,对于学习和理解HBase的基础知识、安装部署以及配置优化具有极大的帮助。 HBase是NoSQL数据库的一种,它在大数据处理中扮演着重要角色...
hbase官方文档 英文
这个压缩包文件包含的"**Hbase中文文档和官方英文文档PDF**"是学习和理解HBase的重要资源,无论是对于初学者还是经验丰富的开发者来说,都是不可或缺的参考资料。 **Hbase中文文档**: 中文文档通常会提供更易懂的...
9. 服务器规模与硬件配置:文档提及了阿里内部HBase的服务器规模已经超过了5000台,同时还有超过5000个CPU核心在为HBase服务,这显示了HBase在阿里搜索推荐系统中的大规模部署。 10. 技术指标:文中提到的5000+台...
标题“HBase_Secondary_Index”提示了本文的重点内容是围绕HBase的二级索引进行阐述。HBase是Apache软件基金会的Hadoop项目的一部分,一个开源的非关系型分布式数据库(NoSQL),它是Google Bigtable的开源实现。它...
【标题】中的 "apache_hbase_reference_guide-3.0.0-SNAPSHOT" 指出了这是一份关于 HBase 版本 3.0.0 的快照版官方参考指南。这意味着它可能包含了 3.0.0 版本即将发布的特性以及可能的不稳定因素。参考指南通常详细...
### HBase 官方文档概览 #### 一、引言 HBase 是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的 Google 的论文 "Bigtable: A Distributed Storage System for Structured Data"。不同于一般...
HBase提供了多种工具和命令来监控系统状态和排查故障,如hbtop命令提供了类似Linux top命令的HBase集群性能视图,同时官方文档还提供了针对不同问题的故障排查和调试指导。 通过以上知识点的分析,我们可以发现...
### HBase官方文档中文版知识点概览 #### 一、HBase简介与基本概念 - **HBase**:HBase是一种分布式、版本化的列式存储系统,基于Google Bigtable论文中的概念开发,作为Apache Hadoop生态系统的一部分。它利用...
HBase_官方文档
HBase参考指南是HBase项目官方发布的指导文档,提供了关于HBase的全面信息,旨在帮助用户从安装配置到使用维护的各个方面。这份指南内容涵盖了多个主题,从基础的配置到高级的性能优化和安全配置。由于文档是英文...
HBase文档中涉及的关键知识点包括: ### 1. HBase的基本概念和原理 - **HBase的数据模型**包括行(Row)、列族(Column Family)、单元格(Cell)和版本(Version)。 - **HBase的存储结构**,分为概念视图和物理...
《HBase官方文档-高清文字版》是一份详尽的指南,主要针对分布式列式数据库HBase进行深入解析。这份文档以清晰的文字和高分辨率的形式呈现,为学习者提供了无书签的阅读体验,便于专注于内容本身。HBase是Apache软件...
这是 Apache HBase的官方文档, Hbase是一个分布式,版本化(versioned),构建在 Apache Hadoop和 Apache ZooKeeper上的列数据库. 我(译者)熟悉Hbase的源代码,从事Hbase的开发运维工作
这个压缩包可能包含相关的配置文件、示例代码、教程文档等,用于帮助用户在Linux系统上搭建和使用这三个组件。 **Flink**: Flink是一个开源的流处理框架,它提供了低延迟的数据处理能力,并支持批处理。Flink的核心...
- **修订历史**:版本 0.97.0-SNAPSHOT 发布于 2013 年 4 月 7 日,由周海汉完成中文版翻译整理工作。与之前的 0.90 版本相比,文档内容进行了较大的补充和更新。 #### 二、HBase 快速入门 - **介绍**:HBase 被...