hadoop-0.20.2+hbase-0.90.3+zookeeper-3.3.1集成安装
结合看了官方文档和前辈的一些安装笔记,今天拿到5台机器来做实验
1.根据需要分别在5台机器上配置hosts
/etc/hosts
#ip 机器名称/域名
192.168.79.102 hadoopcm4 had102
192.168.79.101 hadoopcm3 had101
192.168.79.100 hadoopcm2 had100
192.168.79.99 hadoopcm1 had99
192.168.79.98 hadoopcm0 had98
had102 had101 had100 这三台机器部署 hadoop,其中 had102作为namenode
had101 had100 had99 这三台机器部署 hbase, 其中 had101作为hmaster
had100 had99 had98 这三台机器部署 zk.
2.分别在5台机器上 创建用户 had 并设置密码
useradd had
passwd had
3.SSH无密码验证配置
a.分别在5台机器用 had用户登录,并执行以下命令,生成rsa密钥对
[had@hadoopcm4 ~]$ ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/home/zkl/.ssh/id_rsa): 默认路径
Enter passphrase (empty for no passphrase): 回车,空密码
Enter same passphrase again:
Your identification has been saved in /home/had/.ssh/id_rsa.
Your public key has been saved in /home/had/.ssh/id_rsa.pub.
这将在/home/had/.ssh/目录下生成一个私钥id_rsa和一个公钥id_rsa.pub。
b. 将非namenode节点(had98,had99,had100,had101)上的 id_rsa.pub传送到namenode机器上
cp id_rsa.pub had98.id_rsa.pub
scp had98.id_rsa.pub had102:/home/had/.ssh
............
cp id_rsa.pub had101.id_rsa.pub
scp had101.id_rsa.pub had102:/home/had/.ssh
c. namenode节点上综合所有公钥(包括自身)并传送到所有节点上
cp id_rsa.pub authorized_keys ##namenode自己的公钥
cat had98.id_rsa.pub >> authorized_keys
....
cat had101.id_rsa.pub >> authorized_keys
然后使用SSH协议将所有公钥信息authorized_keys复制到所有节点的.ssh目录下
scp authorized_keys had98:/home/had/.ssh
......
scp authorized_keys had101:/home/had/.ssh
这样配置过后,所有节点之间可以相互SSH无密码登陆,可以通过命令
"ssh 节点ip地址"来验证。
4 分别在5台机器上相同的路径 安装 JDK1.6以上版本 并在 /etc/profile 里配置
5 把在自己windows机器上,下载好的hadoop0.20.2.tar.gz,hbase-0.90.3.tar.gz, zookeeper-3.3.1.tar.gz 都使用
用户 had 登陆 上传到had102机器上。
6 在had102机器上 解压缩后,目录分别重新命名 hadoop,hbase,zookeeper
即: /home/had/hadoop [hadoop0.20.2.tar.gz解压后路径]
/home/had/hbase [hbase-0.90.3.tar.gz解压后路径]
/home/had/zookeeper [zookeeper-3.3.1.tar.gz解压后路径]
7.在had102机器上
a.配置 /etc/profile
#set java environment
JAVA_HOME=/usr/jdk/jdk1.6.0_13
HADOOP_HOME=/home/had/hadoop
CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:CLASSPATH
PATH=$JAVA_HOME/bin:$PATH
PATH=$HADOOP_HOME/bin:$PATH
export JAVA_HOME CLASSPATH HADOOP_HOME PATH
export PATH=/sbin:$PATH:/usr/sbin/
b.配置hadoop [/home/had/hadoop/conf]
I. 修改hadoop-env.sh的变量
export JAVA_HOME=/usr/jdk/jdk1.6.0_13
export HADOOP_PID_DIR=/home/had/hadoop/tmp
II.修改 masters 文件
had102
修改 slaves 文件
had101
had100
III.修改 core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://had102:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/had/hadoop/tmp</value>
</property>
</configuration>
修改 hdfs-site.xml
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/home/had/hadoop/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>
/home/had/hadoop/data1/hdfs,/home/had/hadoop/data2/hdfs,/home/had/hadoop/data3/hdfs
</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
修改mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>had102:9001</value>
</property>
<property>
<name>mapred.child.java.opts</name>
<value>-Xmx768m</value>
</property>
</configuration>
8.scp -r /home/had/hadoop had101:/home/had
scp -r /home/had/hadoop had100:/home/had
切换到/home/had/hadoop目录下
执行bin/hadoop namenode -format(格式化master主机生成name data tmp等文件夹)
9.在had102上 启动namenode
执行 bin/start-all.sh
使用jps命令查看nomenode、secondnamenode是否正常启动
ie里面输入http://had102:50070 查看namenode的相关配置信息、运行状态和日志文件
ie里面输入http://had102:50030 查看jobtasker的相关配置信息、运行状态和日志文件
10.在had102上 配置hbase
a 配置hbase [/home/had/hbase/conf]
I 修改 hbase-env.sh
export JAVA_HOME=/usr/jdk/jdk1.6.0_13/
export HADOOP_HOME=/home/had/hadoop
export HBASE_HOME=/home/had/hbase
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/bin:$PATH:$HBASE_HOME/bin
export HBASE_MANAGES_ZK=false
II 修改 hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://had102:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master</name>
<value>had101</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>had98,had99,had100</value>
</property>
<property>
<name>zookeeper.session.timeout</name>
<value>60000000</value>
</property>
<property>
<name>hbase.zookeeper.property.clientport</name>
<value>2181</value>
</property>
</configuration>
III 修改regionserver
had100
had99
11. scp -r /home/had/hbase had101:/home/had
scp -r /home/had/hbase had100:/home/had
scp -r /home/had/hbase had99:/home/had
12. 配置ZK
进入/home/had/zookeeper/conf/中
(1)cp zoo_sample.cfg zoo.cfg
(2)vim zoo.cfg,如下:
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
dataDir=/home/had/zookeeper/data #这个指定的位置 需要myid
dataLogDir=/home/had/zookeeper/log
# the port at which the clients will connect
clientPort=2181
server.1=had98:2888:3888
server.2=had99:2888:3888
server.3=had100:2888:3888
(3)修改log4j.properties
log4j.appender.ROLLINGFILE.File=/home/had/zookeeper/zookeeper.log
(4) mkdir /home/had/zookeeper/data
mkdir /home/had/zookeeper/log
13. scp -r /home/had/zookeeper had100:/home/had
scp -r /home/had/zookeeper had99:/home/had
scp -r /home/had/zookeeper had98:/home/had
14. 分别登陆had100,had99,had98
进入 /home/had/zookeeper/data
touch myid (此序号设置和zoo.cfg里面的server设置要对应)
列如:在had100 机器上 vi myid 内容为 3
15. 分别在 had100,had99,had98上 进入/home/had/zookeeper 启动ZK
bin/zkServer.sh start
16.启动hbase集群,登陆had101
(1) /home/hadoop/hbase/bin/start-base.sh
(2) 执行jps显示Hmaster是否启动
(3) 执行bin/hbase shell
(4)>create 't1', t2','t3'(测试利用hmaster插入数据)
> list (显示已经插入的数据)
>t1
输入:http://had101:60010
先启动 hadoop集群,再分别启动ZK,最后启动hbase集群。
需要注意的是 hbase 依赖的hadoop-*.jar 要与 使用hadoop版本保持一致
分享到:
相关推荐
Docker(Hadoop_3.3.1+HBase_2.4.16+Zookeeper_3.7.1+Hive_3.1.3 )配置文件 搭建集群环境
Hadoop-2.2.0+Hbase-0.96.2+Hive-0.13.1分布式整合,Hadoop-2.X使用HA方式
在sqoop-1.2.0版本下,若想在安装了Hadoop-0.20.2的环境中正常运行,我们需要确保sqoop的lib目录包含Hadoop的相关库。解压"Hadoop-0.20.2-CDH3B4.tar.gz"后,我们可以将其中的库文件复制到sqoop的lib目录,确保sqoop...
此文以命令行+截图的形式详细的记录了Hadoop-2.6.4+Zookeeper-3.4.9+Hbase-1.2.4分布式开发平台的环境配置过程,希望能对大家有所帮助。
jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...
### Hadoop-0.20.2安装与配置详解 #### 一、Hadoop-0.20.2概述 Hadoop是一款支持大数据处理的开源软件框架,它能够高效地处理PB级别的数据集。Hadoop-0.20.2版本作为早期的一个稳定版本,在很多场景中仍然具有重要...
在本文中,我们将深入探讨如何在CentOS-6.4 64位操作系统上配置一个基于Hadoop 2.2.0、HBase 0.96和Zookeeper 3.4.5的分布式环境。这个过程涉及到多个步骤,包括系统设置、软件安装、配置以及服务启动。 首先,为了...
hadoop-0.20.2-eclipse-pluginhadoop-0.20.2-eclipse-pluginhadoop-0.20.2-eclipse-pluginhadoop-0.20.2-eclipse-pluginhadoop-0.20.2-eclipse-pluginhadoop-0.20.2-eclipse-pluginhadoop-0.20.2-eclipse-plugin
要将其与Hadoop和Hbase集成,首先需要从GitHub获取最新版本的Nutch-2.x源码,并根据项目文档编译Nutch。 在`conf/nutch-site.xml`中,配置Nutch的基本参数,如抓取间隔、抓取策略等。还需在`conf/hadoop-site.xml`...
在大数据处理领域,Hadoop、HBase和Zookeeper是三个至关重要的组件,它们共同构建了一个高效、可扩展的数据处理和存储环境。以下是关于这些技术及其集群配置的详细知识。 首先,Hadoop是一个开源的分布式计算框架,...
在Linux下安装Hadoop-0.20.2,首先需要确保系统已经安装了Java环境,因为Hadoop是用Java编写的,并依赖Java运行时环境。接着,你需要下载Hadoop的tarball文件,这可能就是列表中的“hadoop-0.20.2版本”。下载完成后...
《Hadoop核心库:hadoop-core-0.20.2.jar在Eclipse环境中的应用与解析》 在大数据处理领域,Hadoop是不可或缺的重要工具,它的核心组件hadoop-core为分布式计算提供了基础架构。本文将围绕“hadoop-core-0.20.2.jar...
2. **配置环境变量**:打开系统环境变量设置,添加新的系统变量`HADOOP_HOME`,指向你的Hadoop安装目录(如`C:\Hadoop\hadoop-3.3.1`)。同时,将`PATH`变量中添加`%HADOOP_HOME%\bin`和`%HADOOP_HOME%\sbin`,以便...
Hadoop+ZooKeeper+HBase+hive(HQL)安装步骤
这里我们将深入探讨"Hadoop-core-0.20.2"和"hadoop-2.5.1-src"的源码,以便更好地理解Hadoop的工作原理和内部机制。 **Hadoop Core源码分析** Hadoop-core-0.20.2是Hadoop早期版本的核心组件,它包含了Hadoop的...
安装HBase时,需要考虑集群的Zookeeper配置,因为Zookeeper用于协调HBase的各个组件。 Oozie是Hadoop的工作流调度器,用于管理Hadoop作业(包括MapReduce、Pig、Hive、Sqoop等)和Spark作业的调度。配置Oozie时,...
《hadoop-HDFS+MapReduce+Hive+Hbase快速入门》,一门入门hadoop的经典书籍,相信能够给学习云计算的大家带来帮助。
基于apache发布的FTPserver实现的基于hadoop-0.20.2的FTP服务器,可以直接使用,但要进行hadoop网址的基本配置,另外只有一个匿名用户,除了几个我设定的系统文件夹不能删除外,基本具有所有权限。当然,您可以在此...
Hadoop+Zookeeper+Hbase安装配置使用.pdf