分分钟搞定Hadoop集群 - Linux下搭建HBase集群
10分钟搞定Hadoop-1.2.1集群系列(1) http://chwshuang.iteye.com/blog/2037102
10分钟搞定Hadoop-1.2.1集群系列(2) http://chwshuang.iteye.com/blog/2037530
HBase在Hadoop集群下搭建过程:
在安装HBase集群前,必须先安装zookeeper。
ZooKeeper是Hadoop的正式子项目,它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。Zookeeper是Google的Chubby一个开源的实现,是高有效和可靠的协同工作系统,Zookeeper能够用来leader选举,配置信息维护等,在一个分布式的环境中,需要一个Master实例或存储一些配置信息,确保文件写入的一致性等.ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,包含一个简单的原语集,是Hadoop和Hbase的重要组件。HBase需要Zookeeper来协调HBase集群,Zookeeper Quorum中除了存储了 HBase的-ROOT-表的地址和HMaster的地址,HRegionServer也会把自己以Ephemeral方式注册到Zookeeper中,使得 HMaster可以随时感知到各个HRegionServer的健康状态。此外,Zookeeper也避免了HBase中HMaster的单点问题。
一、安装zookeeper
(1)配置
解压完zookeeper-3.4.6后,进入/home/myhadoop/zookeeper-3.4.6/conf/目录,拷贝zoo_sample.cfg生成一个新文件zoo.cfg。然后修改zoo.cfg中dataDir目录地址,增加访问地址和端口
[myhadoop@myhadoop1 .ssh]$ cd /home/myhadoop/zookeeper-3.4.6/conf/ [myhadoop@myhadoop1 conf]$ ls configuration.xsl log4j.properties zoo_sample.cfg [myhadoop@myhadoop1 conf]$ cp zoo_sample.cfg zoo.cfg [myhadoop@myhadoop1 conf]$ ls configuration.xsl log4j.properties zoo.cfg zoo_sample.cfg [myhadoop@myhadoop1 conf]$ vim zoo.cfg # example sakes. dataDir=/home/myhadoop/zookeeper-3.4.6/data ----修改此目录 #-------添加如下内容 server.1=192.168.1.111:2887:3887 server.2=192.168.1.112:2888:3888 server.3=192.168.1.113:2889:3889
进入zookeeper-3.4.6目录,创建刚才配置中增加的data目录, 然后进入data目录,创建myid文件,输入服务器编号,比如在192.168.1.111上,myid文件就存储数字1,192.168.1.112上就存储数字2
[myhadoop@myhadoop1 conf]$ cd .. [myhadoop@myhadoop1 zookeeper-3.4.6]$ ls bin CHANGES.txt contrib docs ivy.xml LICENSE.txt README_packaging.txt recipes zookeeper-3.4.6.jar zookeeper-3.4.6.jar.md5 build.xml conf dist-maven ivysettings.xml lib NOTICE.txt README.txt src zookeeper-3.4.6.jar.asc zookeeper-3.4.6.jar.sha1 [myhadoop@myhadoop1 zookeeper-3.4.6]$ mkdir data [myhadoop@myhadoop1 zookeeper-3.4.6]$ cd data [myhadoop@myhadoop1 data]$ vim myid 1
(2)拷贝数据到其他服务器
复制zookeeper-3.4.6目录到其他从服务器
[myhadoop@myhadoop1 ~]$ cd ~ [myhadoop@myhadoop1 ~]$ scp zookeeper-3.4.6 myhadoop@myhadoop2:~
(3)修改myid编号
复制完成,以myhadoop用户登录到其他服务器,修改zookeeper-3.4.6/data/myid 文件的内容,myhadoop2服务器就改成2,myhadoop3服务器就改成3
[myhadoop@myhadoop2 ~]$ cd ~ [myhadoop@myhadoop2 ~]$ vim zookeeper-3.4.6/data/myid 2
[myhadoop@myhadoop3 ~]$ cd ~ [myhadoop@myhadoop3 ~]$ vim zookeeper-3.4.6/data/myid 3
(4)启动验证
在从myhadoop3、myhadoop2,myhadoop1,依次执行zkServer.sh start 来启动 zookeeper,所有服务器启动完成后,就可以通过zkServer.sh status来查看服务器状态。没有报错说明都正常了。输入jps可以看到服务器中多了一个QuorumPeerMain服务。
[myhadoop@myhadoop1 ~]$ zkServer.sh start JMX enabled by default Using config: /home/myhadoop/zookeeper-3.4.6/bin/../conf/zoo.cfg Starting zookeeper ... STARTED [myhadoop@myhadoop1 ~]$ zkServer.sh status JMX enabled by default Using config: /home/myhadoop/zookeeper-3.4.6/bin/../conf/zoo.cfg Mode: follower [myhadoop@myhadoop1 ~]$ [myhadoop@myhadoop1 ~]$ jps 4870 SecondaryNameNode 4625 NameNode 4746 DataNode 5102 TaskTracker 6377 Jps 5744 QuorumPeerMain 4971 JobTracker
二、 安装hbase
(1)配置数据目录、集群模式、Zookeeper服务器地址
配置hbase-0.94.17/conf/hbase-site.xml
[myhadoop@myhadoop1 ~]$ vim hbase-0.94.17/conf/hbase-site.xml <?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>hbase.rootdir</name> <value>hdfs://myhadoop1:9000/hbase</value> <description>区域服务器使用存储HBase数据库数据的目录,服务器名称不能填IP,不然会报错</description> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> <description>指定HBase运行的模式: false: 单机模式或者为分布式模式 true: 全分布模式 </description> </property> <property> <name>hbase.zookeeper.quorum</name> <value>myhadoop1,myhadoop2,myhadoop3</value> <description>ZooKeeper集群服务器的位置</description> </property> </configuration>
(2)配置数据服务器地址
hbase-0.94.17/conf/regionservers
[myhadoop@myhadoop1 ~]$ vim hbase-0.94.17/conf/regionservers 192.168.1.111 192.168.1.112 192.168.1.113
(3)配置HBase中Zeekeeper使用方式
在hbase-0.94.17/conf/hbase-env.sh文件最尾部,打开注释 export HBASE_MANAGES_ZK=false,修改true为false。意思是使用外部的Zeekeeper
[myhadoop@myhadoop1 ~]$ vim hbase-0.94.17/conf/hbase-env.sh export HBASE_MANAGES_ZK=false
(3)复制HBase目录到其他服务器
在myhadoop1上以myhadoop用户,使用以下命令进行复制:
scp -r hbase-0.94.17 myhadoop@myhadoop2:~
scp -r hbase-0.94.17 myhadoop@myhadoop1:~
(4)启动,验证
拷贝完成后就可以输入:start-hbase.sh启动HBase集群了;启动完成后,myhadoop1上使用jps命令可以看到多了一个HMaster服务,在子节点输入jps可以看到多了一个HRegionServer服务; 登录HBase可以使用hbase shell命令登录HBase,输入status查看当前状态。输入exit退出HBase服务。
[myhadoop@myhadoop1 ~]$ start-hbase.sh starting master, logging to /home/myhadoop/hbase-0.94.17/logs/hbase-myhadoop-master-myhadoop1.out 192.168.1.112: starting regionserver, logging to /home/myhadoop/hbase-0.94.17/bin/../logs/hbase-myhadoop-regionserver-myhadoop2.out 192.168.1.113: starting regionserver, logging to /home/myhadoop/hbase-0.94.17/bin/../logs/hbase-myhadoop-regionserver-myhadoop3.out 192.168.1.111: starting regionserver, logging to /home/myhadoop/hbase-0.94.17/bin/../logs/hbase-myhadoop-regionserver-myhadoop1.out [myhadoop@myhadoop1 ~]$ jps 4870 SecondaryNameNode 4625 NameNode 6013 HMaster 4746 DataNode 5102 TaskTracker 6377 Jps 5744 QuorumPeerMain 4971 JobTracker 6171 HRegionServer [myhadoop@myhadoop1 ~]$ hbase shell HBase Shell; enter 'help<RETURN>' for list of supported commands. Type "exit<RETURN>" to leave the HBase Shell Version 0.94.17, r1569509, Tue Feb 18 22:25:31 UTC 2014 hbase(main):001:0> status 3 servers, 0 dead, 0.6667 average load hbase(main):002:0> exit [myhadoop@myhadoop1 ~]$
通过浏览器查看:在浏览器中输入 : http://192.168.1.111:60010/
备注:
zookeerper只支持单节点和三节点,不能配置为两个节点的服务,另外开启的端口记得在防火墙中开启,否则访问会失败
相关推荐
总之,HBase-1.2.1的二进制压缩包提供了在Hadoop环境下部署和运行HBase所需的所有组件,适用于处理大量非结构化或半结构化数据的场景,如实时分析、日志处理、物联网应用等。正确解压并配置后,用户可以充分利用...
HBase 是一个开源的、分布式的、版本化的 NoSQL 数据库(也即非关系型数据库),它利用 Hadoop 分布式文件...HBase 作为 Hadoop 框架下的数据库,是被设计成在一个服务器集群上运行的。。。。。。。。。。。。。。。
企业内部实际 hadoop zookeeper hbase搭建步骤明细
以上是搭建Hadoop 2.6.3、Spark 1.5.2、HBase 1.1.2、Hive 1.2.1和Zookeeper 3.4.6集成环境的基本步骤和注意事项,每个环节都需要仔细操作,确保集群稳定运行。在实际环境中,还可能涉及更多高级特性,如安全性设置...
本篇将详细阐述如何在Hadoop 2.7.1环境下搭建HBase 1.2.1集群,并进行性能优化,以提升系统效率。 首先,我们需要了解Hadoop和HBase的基本概念。Hadoop是基于分布式文件系统HDFS(Hadoop Distributed File System)...
在Linux环境下安装和配置Hive 1.2.1,你需要做以下步骤: 1. 解压压缩包:`tar -zxvf hadoop_apache-hive-1.2.1-bin.tar.gz` 2. 配置环境变量:在`~/.bashrc`或`~/.bash_profile`中添加Hive的路径,并source更新。 ...
以上步骤涵盖了从环境准备、软件安装到集群配置的全部过程,遵循这些指导可以成功搭建一个完整的Hadoop+HBase集群。在实际操作过程中,可能还会遇到各种问题,比如网络配置、安全策略等,需要根据具体情况灵活调整。...
《深入理解HBase 1.2.1:与JDK1.8、Hadoop2.7.4和Zookeeper3.4.1的协同工作》 HBase,作为一款基于Google Bigtable理念设计的分布式列式数据库,是Apache Hadoop生态系统中的重要组件。HBase 1.2.1版本是在其早期...
这个版本发布于2015年,是Hive的一个稳定版本,对于那个时期的Hadoop集群来说是一个常用的选择。 描述中的信息非常简洁,只提到了文件名,暗示这可能是一个标准的下载包,用于在本地或服务器上安装Hive。 标签...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它的出现主要解决了海量数据处理的问题。Hadoop 2.7.1是Hadoop发展过程中的一个重要版本,它提供了许多增强特性和稳定性改进,使得大规模数据处理更加高效和...
使用命令 `rpm -i jdk-7u1-linux-x64.rpm` 安装 JDK,并将其默认安装路径设为 `/usr/java/`。 - **配置环境变量**:编辑 `/etc/profile` 文件,添加以下内容: ```bash export JAVA_HOME=/usr/java/jdk1.7.0_018 ...
这里提到的"基于虚拟机集hbase1.2.1配置文件"是针对一个由一个Master节点和三个Slave节点构成的HBase集群的配置。下面我们将详细探讨这些配置文件及其重要性。 首先,`hbase-site.xml`是HBase的主要配置文件,它...
这个过程可能需要多次尝试和调整,但遵循这些步骤,你应该能够在Wmware环境下成功搭建一个基本的Hadoop集群,包括HBase、Zookeeper和Hive。记住,配置文件的具体内容可能会根据你的具体需求和环境有所不同,因此请...
HBase是Apache Hadoop生态系统中的一个分布式列式存储系统,主要设计用于处理大规模数据存储和实时查询。在HBase中,`hbase-default.xml`是一个非常重要的配置文件,它包含了HBase运行时的默认配置参数。这个文件为...
- hadoop-1.2.1 - hbase-0.94.20 #### 二、HBase 安装步骤 ##### 1. 下载安装包 - **下载地址**: - [http://archive.apache.org/dist/hbase/](http://archive.apache.org/dist/hbase/) - **推荐版本**:HBase...
2. "hadoop1.2.1-API中文版.chm" 是Hadoop 1.2.1版本的中文API帮助文档。它包含了Hadoop生态系统的各种组件,如HDFS(Hadoop Distributed File System)、MapReduce(分布式计算模型)以及Common模块等的API接口和...
通过本次实验, 学习者掌握了Hadoop和HBase的基本安装与配置流程, 包括搭建实验环境、配置Hadoop与HBase、测试集群以及解决常见问题等关键技能。这些步骤对于理解和实践大数据处理技术至关重要, 也为后续深入学习打下...
10. **扩展性**:随着数据的增长,可以通过增加RegionServer节点来横向扩展HBase集群,提高处理能力和存储容量。 11. **优化策略**:包括合理设置Region大小、预分区表、选择合适的Column Family、启用BlockCache等...
本文将详细介绍如何在Linux环境下搭建一个包含Hbase、Pig、Hive、Zookeeper、Ganglia、Chukwa以及Eclipse插件的Hadoop云计算平台。 首先,安装环境的选择至关重要。Hadoop官方推荐在Linux系统上构建集群,因为...
1. **HBase客户端API**:Java开发者可以通过这个API创建表、插入数据、查询数据以及管理HBase集群。它提供了如`Admin`接口用于管理表和区域,`Table`接口用于操作表,以及`Put`、`Get`、`Delete`和`Scan`对象用于...