HBase集群配置安装
hadoop-0.20.2
hbase-0.20.3
zookeeper-3.3.0
1:
tar zxvf hbase-0.20.3.tar.gz
2:
修改 ./hbase-0.20.3/conf/hbase-env.sh
export JAVA_HOME=/usr/local/java/
3:
创建文件./hbase-0.20.3/conf/hbase-site.xml
用户存放用户自定义的一些配置信息,相关配置项可以从 ./hbase-0.20.3/conf/hbase-default.xml中找到.
一个简单的hbase-site.xml如下:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9900/hbase</value>
</property>
<property>
<name>hbase.master.port</name>
<value>60000</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
注意:
把./hbase-0.20.3/conf/hbase-site.xml中
<name>hbase.rootdir</name>
<value>hdfs://master:9900/hbase</value>
和
./hadoop-0.20.2/conf/core-site.xml中
<name>fs.default.name</name>
<value>hdfs://master:9900/</value>
保持一致就可以了。
如果不一致的话,会报如下错误:
[hadoopuser@master hbase-0.20.3]$ bin/hbase shell
HBase Shell; enter 'help<RETURN>' for list of supported commands.
Version: 0.20.3, rUnknown, Fri Apr 9 11:15:50 CST 2010
hbase(main):001:0>create 'test','fs'
NativeException: org.apache.hadoop.hbase.MasterNotRunningException: null
4:
创建文件./hbase-0.20.3/conf/regionservers
内容如下:
server01
server02
server03
server04
server05
5:
分发hbase-0.20.3到各台服务器(可能要根据实际情况更改JAVA_HOME)
6:
启动hbase
在master节点上启动:
bin/start-hbase.sh
localhost: starting zookeeper, logging to ********
starting master, logging to *********
server01: starting regionserver, logging to **********
server02: starting regionserver, logging to **********
server03: starting regionserver, logging to **********
server04: starting regionserver, logging to **********
server05: starting regionserver, logging to **********
7:
使用hbase shell
bin/hbase shell
hbase(main):012:0> create 'test','fs'
0 row(s) in 2.4360 seconds
hbase(main):013:0> list
test
1 row(s) in 0.0060 seconds
hbase(main):014:0> disable 'test'
0 row(s) in 2.0460 seconds
hbase(main):015:0> drop 'test'
0 row(s) in 0.0050 seconds
0 row(s) in 0.0050 seconds
0 row(s) in 0.0570 seconds
通过web方式可以查看运行在HBase下的zookeeper :
http://master:60010/zk.jsp
分享到:
相关推荐
1. **Hadoop集群配置确认**:确保Hadoop集群稳定运行,并且各节点间可以通过主机名相互访问。 2. **时间同步配置**:使用NTP或手动调整时间的方式确保所有节点的时间一致。 3. **Zookeeper集群部署**: - 将...
hbase需要搭建集群,这里详细的介绍了集群的安装方式以及配置文件的一些修改
HBase2集群配置.pdf HBase2集群配置.pdf HBase2集群配置.pdf HBase2集群配置.pdf
提供的文档`hadoop_zookeeper_hbase集群配置.docx`应包含详细的步骤和配置示例,而`配置文件.rar`则可能包含了预设的配置模板,可以作为配置参考。在实际操作时,务必根据具体环境调整配置,确保所有节点之间的网络...
"监控HBase集群" HBase是一个分布式的NoSQL数据库,监控HBase集群对于确保系统的高可用性和性能非常重要。在这里,我们将讨论如何使用Java代码来实现HBase集群的监控。 监控HBase集群的重要性: 在生产系统中,...
"Hbase 集群模式的本地安装与配置" 本文档旨在指导用户在 Ubuntu 16.04 环境下安装和配置 Hbase 集群模式,以满足大数据学习爱好者的需求。下面是安装和配置 Hbase 集群模式的详细步骤和知识点: 系统环境 在安装...
总结来说,HBase集群部署涉及到多个层面的知识点,包括对HBase结构的理解、虚拟机环境的配置、JDK的安装和配置、SSH无密码登录的设置,以及HBase的配置。这些知识点不仅对于理解HBase的工作原理至关重要,而且对于...
#### 3.3 集群配置 进入${HBASE_HOME}/conf目录下,修改配置文件: 1. hbase-env.sh 2. hbase-site.xml 配置hbase-env.sh文件,指定HBase的安装位置和JDK的安装位置。 export HBASE_HOME=/usr/app/hbase-1.2.0-...
高可用hbase安装,包括基本环境处理、安装zookeeper、安装hadoop、安装hbase整个过程
HBase集群应用和优化经验 HBase集群是大数据处理和存储的重要组件,本篇文章将分享月光宝盒双11 HBase集群应用和优化经验,涵盖了月光宝盒项目简介、HBase集群双11相关工作、月光宝盒双11相关工作、总结的话、Q&A等...
在Hadoop和HBase集群中,Zookeeper起着至关重要的作用。安装Zookeeper需要下载安装包,解压配置,启动服务,并在Hadoop和HBase的配置文件中指定Zookeeper服务器的地址。 Kafka是另一个重要的组件,它是一个高吞吐量...
9. **Hbase集群配置**:Hbase依赖于Hadoop的HDFS服务,需要在Hadoop集群配置的基础上,进一步配置Hbase的`hbase-site.xml`,指定Zookeeper的地址,以及其他相关参数。 10. **Zookeeper配置**:Zookeeper是Hadoop...
为了更好地管理和监控HBase集群,推荐使用HBase自带的Web UI或者第三方工具如Ambari、Cloudera Manager等。同时,定期进行健康检查,监控日志,以及对集群性能进行调优都是运维过程中的重要环节。 总之,HBase的...
在本文中,我们将深入探讨如何搭建一个Zookeeper和HBase集群,以及在过程中可能遇到的常见问题和解决方案。Zookeeper和HBase都是大数据处理领域的关键组件,Zookeeper作为一个分布式协调服务,而HBase是一个基于...
5. 最后,可以通过监控日志和管理工具检查各个组件的状态,确保整个HBase集群健康运行。 在实际环境中,还需要关注HBase的性能调优、安全配置、监控以及故障排查等方面,以确保系统的稳定和高效。此外,定期维护和...
3. HBase集群启动:使用HBase自带的start-hbase.sh脚本在主节点上启动HBase集群,该脚本会进一步启动集群中所有必要的服务。 4. 确认集群运行:通过HBase自带的Web界面或者命令行工具确认HBase集群是否正常运行。 ...
大数据集群 Hadoop HBase Hive Sqoop 集群环境安装配置及使用文档 在本文档中,我们将详细介绍如何搭建一个大数据集群环境,包括 Hadoop、HBase、Hive 和 Sqoop 的安装配置及使用。该文档将分为四部分:Hadoop 集群...