hadoop版本:hadoop-0.20.2 http://apache.etoak.com//hadoop/common/hadoop-0.20.2/
安装配置Hadoop请参考:http://booby325.iteye.com/admin/blogs/1309940
HBase版本:Hbase-0.90.3 http://apache.etoak.com//hbase/hbase-0.90.3/
Hbase书籍:http://hbase.apache.org/book/book.html
1.将HBase解压后,放到Hadoop某一目录下。此处我们可以建立一个叫v20Habse的目录.[应该也可以不用这样做]
2.编辑{HBASE_HOME}/conf/hbase-env.sh文件
export JAVA_HOME=/usr/lib/jvm/java-6-sun
export HBASE_CLASSPATH=/home/daisy/hadoop-0.20.2 (可选,不写貌似也没问题)
3.编辑{HBASE_HOME}/conf/hbase-site.xml 文件,增加
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
注意:ip和端口号必须与hadoop中core-site.xml中fs.default.name中的ip和端口相同,否则会出错。此外,启动Hbase之前一定要确保hdfs中已经存在了hbase root路径。
4.替换Hbase中的jar包
需要用{HADOOP_HOME}下的hadoop-0.20.2-core.jar 替换{HBASE_HOME}/lib目录下的hadoop-core-0.20-append-r1056497.jar. 如不替换,则Hbase启动时会因为hadoop和Hbase的客户端协议不一致而导致HMaster启动异常
localhost: Exception in thread "main" org.apache.hadoop.ipc.RPC$VersionMismatch: Protocol org.apache.hadoop.hdfs.protocol.ClientProtocol version mismatch. (client = 42, server = 41)
还出现过,说找不到localhost:9000的错误。替换jar包则正常。
5. 使用HBase:
启动: bin/start-hbase.sh
停止: bin/stop-hbase.sh
使用: bin/hbase shell 进入HBase命令行模式
hbase(main):004:0> create 'userlibrary', {NAME => 'lib', VERSION => 1}
0 row(s) in 1.2460 seconds
hbase(main):005:0> list
TABLE
userdata
userlibrary
2 row(s) in 0.0220 seconds
Note:
1. HBase的运行需要用到zookeeper,而hbase-0.90.3自带了zookeeper,所以可以使用hbase自带的zookeeper. 在conf/hbase-env.sh 文件中export HBASE_MANAGES_ZK=true表示使用hbase自带的zookeeper,如果不想使用其自带的zookeeper,自己下载包安装的话,该项设置为false. 如果自己安装zookeeper,启动及关闭先后顺序为:启动Hadoop—>启动ZooKeeper集群—>启动HBase—>停止HBase—>停止ZooKeeper集群—>停止Hadoop。
2. HBase启动时报错:
localhost: Exception in thread "main" org.apache.hadoop.ipc.RPC$VersionMismatch: Protocol org.apache.hadoop.hdfs.protocol.ClientProtocol version mismatch. (client = 42, server = 41)
是上面hbase安装时没有替换jar包的原因。
3. 运行时可能出现HBase一直等待dfs推出安全模式的情况,Waiting for dfs to exit safe mode
Safe mode is exited when the minimal replication condition is reached, plus an extension time of 30 seconds. The minimal replication condition is when 99.9% of the blocks in the whole filesystem meet their minimum replication level (which defaults to one, and is set by dfs.replication.min).
安全模式的退出前提 - 整个文件系统中的99.9%(默认是99.9%,可以通过dfs.safemode.threshold.pct设置)的Blocks达到最小备份级别(默认是1,可以通过hdf-site.xml中dfs.replication.min设置,比如0.5)。
或者用户可以通过hadoop dfsadmin -safemode value 来操作安全模式,参数value的说明如下:
enter - 进入安全模式
leave - 强制NameNode离开安全模式
get - 返回安全模式是否开启的信息
wait - 等待,一直到安全模式结束
分享到:
相关推荐
Hadoop+Zookeeper+Hbase安装配置使用.pdf
提供的文档`hadoop_zookeeper_hbase集群配置.docx`应包含详细的步骤和配置示例,而`配置文件.rar`则可能包含了预设的配置模板,可以作为配置参考。在实际操作时,务必根据具体环境调整配置,确保所有节点之间的网络...
总的来说,搭建Hadoop、HBase、Spark和Hive集群涉及多个步骤,包括安装、配置、启动以及验证。整个过程需要对大数据处理原理有深入理解,并熟悉Linux系统的操作。完成后,这个集群可以处理大量数据,支持实时查询和...
jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...
大数据hbase测试项目, String boot + hadoop + hbase 的一个测试项目 1.jdk路径不能有空格,中文 2.spring 示例官方xml配置中需有调整,避免 delete xxx 异常。 3.maven本地版本不能小于cm上hadoop、hbase版本。
Hadoop+HBase集群搭建详细手册 本文将详细介绍如何搭建Hadoop+HBase集群,包括前提准备、机器集群结构分布、硬件环境、软件准备、操作步骤等。 一、前提准备 在搭建Hadoop+HBase集群之前,需要准备以下几个组件:...
本文档旨在指导用户如何在单节点上安装并配置Hadoop与Hbase,从而实现数据的分布式存储和处理。通过本教程的学习,读者将能够理解并掌握Hadoop与Hbase的基本操作流程。 #### 二、运行环境要求 ##### 2.1 支持的平台...
【标题】:“安装笔记:hadoop+hbase+sqoop2+phoenix+kerberos” 【描述】:在本文中,我们将探讨如何在两台云主机(实际环境可能需要三台或更多)上安装Hadoop、HBase、Sqoop2、Phoenix以及Kerberos的详细过程,...
windows安装配置jdk+hadoop+hbase
在安装Hadoop时,通常需要配置集群环境,包括主节点和从节点,并确保所有节点之间的网络通信畅通。 Spark是大数据处理的另一个关键组件,它支持批处理、交互式查询(通过Spark SQL)、实时流处理(通过Spark ...
- **Hbase部署:** 在Hadoop集群的基础上安装Hbase,并配置Master节点和RegionServer。 - **数据迁移与同步:** 将现有数据迁移到HDFS中,并在Hbase中建立相应的表结构。 - **系统优化:** 根据业务需求调整HDFS...
了解如何在Hadoop集群上安装和配置HBase,以及如何将HBase作为数据存储层集成到Hadoop生态系统中。 6. 分布式存储系统的优化。针对不同的应用场景,例如海量数据处理、实时增量搜索、图形计算和交互式计算等,理解...
具体使用Java API开发时,首先需要配置Hadoop和HBase的相关环境,包括设置HADOOP_CONF_DIR和HBASE_HOME环境变量。然后,开发者可以创建一个MapReduce作业,定义Mapper和Reducer类,使用`FileInputFormat`和`...
2. **HBase配置与数据加载**:设置HBase的集群环境,包括Master、RegionServer等节点,然后根据业务需求创建表结构,将预处理后的数据导入HBase。 3. **Hive元数据管理**:Hive需要知道HBase中的表结构,所以要在...
然后,下载Hadoop、Zookeeper和HBase的最新稳定版本,并根据官方文档或社区指南进行安装。配置文件通常位于`conf`目录下,如`hadoop-env.sh`、`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`、`zoo.cfg`和`...
本文详细介绍了如何在Centos虚拟机环境中安装和配置JDK与Hadoop的基本流程。这为后续Hive与HBase等大数据组件的部署奠定了基础。需要注意的是,在实际操作过程中可能会遇到各种问题,例如网络配置、权限问题等,这些...
- 自动化安装配置。 - 集群监控。 - 日志管理。 #### 2. **Ambari特点** - **直观的Web界面**:用户可以通过浏览器操作集群。 - **丰富的插件系统**:支持多种Hadoop组件的管理。 综上所述,徐老师的大数据...
构建Hadoop+HBase+Hive集群是一项复杂而细致的工作,涉及到时间同步、网络配置、用户管理、软件安装与配置等多个方面。每一环节都需精心设计和实施,才能确保集群的高效、稳定运行。上述步骤涵盖了从基础设施搭建到...
安装HBase需要下载hbase-0.96.2-hadoop2-bin.tar.gz安装包,然后解压缩并配置HBase。 集群环境搭建 搭建Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境需要完成以下步骤: 1. 安装和配置Hadoop2.2 2. 安装和配置...
Docker(Hadoop_3.3.1+HBase_2.4.16+Zookeeper_3.7.1+Hive_3.1.3 )配置文件 搭建集群环境