最近我由于工作原因,我要搭建一套hadoop+hbase集群的测试环境。
目前有三台服务器,我计划就在这三台服务器中搭建一套环境,多余的话不说,大家往下看吧。
一、搭建前的准备工作
我有三台服务器,分别是192.168.1.97,192.168.1.98,192.168.1.99。
那我如何来命名呢,97对应的是master,98对应的是slave1,99对应的是slave2,其中97作为namenode节点。
我的hadoop采用的是1.2.1版本,hbase采用的是0.94.16。
二、搭建hadoop环境
1、使用tar命令将压缩包解压,放到/usr/hadoop目录中。
tar -zxvf hadoop1.2.1.tar.gz
同时将hadoop安装包通过scp命令发送到另外二台服务器中。
scp hadoop1.2.1.tar.gz slave1:/usr/
2、生成免签密钥
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys scp authorized_keys slaves1:~/.ssh/ scp authorized_keys slaves2:~/.ssh/
使用以上命令生成密钥,并且复制到另外二台机器中。
3、修改主机名和host
使用 vi /etc/sysconfig/network 修改HOSTNAME=master 使用 vi /etc/hosts 添加 192.168.1.97 master
同样的道理,配置在slave1和slave2机器里。
4、修改core-site.xml文件
<configuration> <!-- file system properties --> <property> <name>fs.default.name</name> <value>hdfs://master:9000</value> </property> <property> <name>fs.checkpoint.dir</name> <value>/usr/hadoop_dir/dfs/namesecondary</value> </property> </configuration>
5、修改hdfs-site.xml
<configuration> <property> <name>dfs.replcation</name> <value>1</value> </property> </configuration>
这里面的value值,当服务器的数量大于三个的时候,建议配置成2以上,本例为了演示写成1,其实这个配置文件就是为了说明备份的数量。
6、修改mapred-site.xml
<configuration> <property> <name>mapred.job.tracker</name> <value>master:9001</value> </property> </configuration>
7、修改hadoop-env.sh
在该文件中添加JAVA_HOME保存退出。如下所示,这个步骤必须要进行。
8、修改slaves文件
如果希望将namenode也作为datanode,那就写上三个。
9、格式化文件系统
./hadoop namenode -format
10、启动hadoop
使用./start-all.sh启动
如果在启动的时候报错,则要到logs目录中查看相应的日志。
仔细看图,要观察每一个节点是否显示出来,如果没有显示说明该节点存在问题。
11、成功后显示如下界面:
三、搭建hbase环境
1、修改hbase-site.xml配置文件
<configuration> <property> <name>hbase.master</name> <value>master:60010</value> </property> <property> <name>dfs.support.append</name> <value>true</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.rootdir</name> <value>hdfs://master:9000/hbase</value> </property> </configuration>
hbase.cluster.distributed:这个属性是用来判断hbase是否是集群,这个需要注意,这里选择为true。
由于在本例中没有单独安装Zookeeper使用hbase默认的,所以在另外二台服务器中该配置文件中多几个属性。如下所示:
<property> <name>hbase.zookeeper.quorum</name> <value>master</value> </property>
2、修改regionservers
master slave1 slave2
3、修改hbase-env.sh
添加JAVA_HOME。
4、启动hbase集群。
5、启动成功界面如下:
相关推荐
集群配置完成后,通常还需要进行一些验证操作,如检查Hadoop的`dfs健康报告`、HBase的`master状态`以及Zookeeper的`集群状态`。同时,定期进行维护,如监控日志、性能调优和故障排查,是保持集群稳定运行的关键。 ...
Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建 Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建是大数据处理和存储的重要组件,本文档将指导用户从零开始搭建一个完整的Hadoop2.2+Zookeeper3.4.5+HBase0.96集群...
Hadoop+HBase集群搭建详细手册 本文将详细介绍如何搭建Hadoop+HBase集群,包括前提准备、机器集群结构分布、硬件环境、软件准备、操作步骤等。 一、前提准备 在搭建Hadoop+HBase集群之前,需要准备以下几个组件:...
- 在Hadoop集群运行的基础上安装HBase,确保Hadoop的相关环境变量被HBase使用。 - 配置HBase的`hbase-site.xml`以指定Zookeeper地址和集群模式。 - 启动HBase服务,包括Master和RegionServer。 3. **Spark**:...
在大数据领域,构建一个完整的生态系统是至关重要的,其中包括多个组件,如Hadoop、Spark、Hive、HBase、Oozie、Kafka、Flume、Flink、Elasticsearch和Redash。这些组件协同工作,提供了数据存储、处理、调度、流...
根据提供的标题、描述、标签及部分内容链接,我们可以推断出这是一个关于大数据技术栈的培训课程,涉及的技术包括Hadoop、HBase、Zookeeper、Spark、Kafka、Scala以及Ambari。下面将针对这些技术进行详细的介绍和...
jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...
在大数据处理领域,Hadoop、Zookeeper和HBase是三个非常关键的组件,它们共同构建了一个高效、可扩展的数据仓库集群。以下是对这三个组件及其在集群搭建中的配置说明的详细阐述。 1. Hadoop:Hadoop是Apache软件...
本篇将详细阐述如何在Hadoop 2.7.1环境下搭建HBase 1.2.1集群,并进行性能优化,以提升系统效率。 首先,我们需要了解Hadoop和HBase的基本概念。Hadoop是基于分布式文件系统HDFS(Hadoop Distributed File System)...
本项目旨在搭建一套完整的Spark集群环境,包括Hadoop HA(高可用)、HBase、Phoenix、Kafka、Flume、Zookeeper以及Scala等多个组件的集成。这样的环境适用于大规模的数据处理与分析任务,能够有效地支持实时数据流...
Hadoop+Hbase+Spark+Hive搭建指南 Hadoop是Apache开源的大数据处理框架,它提供了可靠的高效的数据存储和处理能力。Hbase是基于Hadoop的分布式NoSQL数据库,提供了高效的数据存储和检索能力。Spark是基于内存的数据...
Hadoop HA高可用集群搭建(Hadoop+Zookeeper+HBase) 一、Hadoop HA高可用集群概述 在大数据处理中,高可用集群是非常重要的,Hadoop HA高可用集群可以提供高可靠性和高可用性,确保数据处理不中断。该集群由...
从零开始hadoop+zookeeper+hbase+hive集群安装搭建,内附详细配置、测试、常见error等图文,按照文档一步一步搭建肯定能成功。(最好用有道云打开笔记)
### hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结 #### 一、Hadoop2.2的安装 **问题导读:** 1. Hadoop的安装需要安装哪些软件? 2. Hadoop与HBase整合需要注意哪些问题? 3. Hive与HBase的...
Hadoop+ZooKeeper+HBase+hive(HQL)安装步骤
Hadoop 2.6.0+Hbase1.12+mahout0.9 集群搭建,自己写的,可以根据实际情况搭建伪分布式或者完全分布式。
毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+论文PDF(高分毕设)毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+论文PDF(高分毕设)毕业设计基于hadoop+hive+hbase+...
毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+文档说明(高分毕设)毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+文档说明(高分毕设)毕业设计基于hadoop+hive+...
Hadoop+Zookeeper+Hbase安装配置使用.pdf