`

hadoop 2.2.0集群安装详细步骤

 
阅读更多

安装之前,首先打通机器无密码登录

具体步骤如下:
第一步:产生密钥
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
 
第二部:导入authorized_keys
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
 把产生的密钥放到slave机器上,这样master就可以无密码登录slave了

 

1、 解压文件

       将第一部分中下载的hadoop-2.2.tar.gz解压到/home/sm01路径下。然后为了节省空间,可删除此压缩文件,或将其存放于其他地方进行备份。将hadoop-2.2.0重命名为hadoop2

mkdir hadoop2
cp -r hadoop-2.2.0/* .

 

注意:每台机器的安装路径要相同!!

三台机器配置host映射

192.168.1.1 master
192.168.1.2 slave1
192.168.1.3 slave2

 

2、 hadoop配置过程

配置之前,需要在master本地文件系统创建以下文件夹:

~/dfs/name

~/dfs/data

~/dfs/temp

这里要涉及到的配置文件有7个:

~/hadoop2/etc/hadoop/hadoop-env.sh

~/hadoop2/etc/hadoop/yarn-env.sh

~/hadoop2/etc/hadoop/slaves

~/hadoop2/etc/hadoop/core-site.xml

~/hadoop2/etc/hadoop/hdfs-site.xml

~/hadoop2/etc/hadoop/mapred-site.xml

~/hadoop2/etc/hadoop/yarn-site.xml

以上个别文件默认不存在的,可以复制相应的template文件获得。

配置文件1:hadoop-env.sh

修改JAVA_HOME值(export JAVA_HOME=/usr/java/jdk1.7.0_40)

配置文件2:yarn-env.sh

修改JAVA_HOME值(exportJAVA_HOME=/usr/java/jdk1.7.0_40)

配置文件3:slaves (这个文件里面保存所有slave节点)

写入以下内容:

slave1
slave2

 

配置文件4:core-site.xml

<configuration>
	<property>
		<name>fs.defaultFS</name>
		<value>hdfs://master:9000</value>
	</property>
	<property>
		<name>io.file.buffer.size</name>
		<value>131072</value>
	</property>
	<property>
		<name>hadoop.tmp.dir</name>
		<value>file:/home/sm01/hadoop2/dfs/temp</value>
		<description>Abase for other temporary directories.</description>
	</property>
	<property>
		<name>hadoop.proxyuser.hduser.hosts</name>
		<value>*</value>
	</property>
	<property>
		<name>hadoop.proxyuser.hduser.groups</name>
		<value>*</value>
	</property>
</configuration>

 

配置文件5:hdfs-site.xml

<configuration>
	<property>
		<name>dfs.namenode.secondary.http-address</name>
		<value>master:9001</value>
	</property>
	<property>
		<name>dfs.namenode.name.dir</name>
		<value>file:/home/sm01/hadoop2/dfs/name</value>
	</property>
	<property>
		<name>dfs.datanode.data.dir</name>
		<value>file:/home/sm01/hadoop2/dfs/data</value>
	</property>
	<property>
		<name>dfs.replication</name>
		<value>3</value>
	</property>
	<property>
		<name>dfs.webhdfs.enabled</name>
		<value>true</value>
	</property>

</configuration>

 

配置文件6:mapred-site.xml

<configuration>
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
	<property>
		<name>mapreduce.jobhistory.address</name>
		<value>master:10020</value>
	</property>
	<property>
		<name>mapreduce.jobhistory.webapp.address</name>
		<value>master:19888</value>
	</property>
</configuration>

 

配置文件7:yarn-site.xml

<configuration>
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
	<property>
		<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
		<value>org.apache.hadoop.mapred.ShuffleHandler</value>
	</property>
	<property>
		<name>yarn.resourcemanager.address</name>
		<value>master:8032</value>
	</property>
	<property>
		<name>yarn.resourcemanager.scheduler.address</name>
		<value>master:8030</value>
	</property>
	<property>
		<name>yarn.resourcemanager.resource-tracker.address</name>
		<value>master:8031</value>
	</property>
	<property>
		<name>yarn.resourcemanager.admin.address</name>
		<value>master:8033</value>
	</property>
	<property>
		<name>yarn.resourcemanager.webapp.address</name>
		<value>master:8088</value>
	</property>
</configuration>

 

3、复制到其他节点

这里可以用无密码登录,这样比较容易复制,因为我后面要装hbase,所以无密码登录已经打通,可以直接用一下命令推送到其他机器上

 

scp -r hadoop2/ slave1:/home/sm01
scp -r hadoop2/ slave2:/home/sm01
 

 

 

4、启动验证

4.1 启动hadoop

进入安装目录: cd  ~/hadoop2/

格式化namenode:./bin/hadoop namenode -format

注:如果格式化或者启动hadoop的nodename报错,则需要修改 conf/hadoop-env.sh,增加

                  export HADOOP_COMMON_HOME=/usr/hadoop/hadoop (hadoop的安装目录)

然后重新格式化namenode

启动: ./sbin/start-all.sh

此时在master上面运行的进程有:namenode secondarynamenode

slave上面运行的进程有:datanode

查看集群状态:./bin/hdfs dfsadmin –report

 

查看文件块组成:  ./bin/hdfsfsck / -files -blocks

查看HDFS:    http://192.168.1.1:50070

查看RM:    http:// 192.168.1.1:8088

4.2 运行示例程序:

先在hdfs上创建一个文件夹

./bin/hdfs dfs –mkdir /input

./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jarrandomwriter input

 

分享到:
评论

相关推荐

    Hadoop2.2.0集群安装

    ### Hadoop2.2.0集群安装:QJM实现HA及Hdfs-site配置详解 #### 一、Hadoop2.2.0完全分布式集群平台安装设置概述 在深入探讨Hadoop2.2.0的安装过程之前,我们需要了解Hadoop的基本架构以及其核心组件——HDFS...

    hadoop2.2.0集群搭建

    本文详细介绍了如何搭建 Hadoop 2.2.0 的集群,包括前期的环境准备、节点角色分配、Hadoop 和 ZooKeeper 的安装配置等关键步骤。通过这些步骤,用户可以成功地部署一个功能完备的 Hadoop 集群,支持大数据处理的各项...

    Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程

    Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程 按照文档中的操作步骤,一步步操作就可以完全实现hadoop2.2.0版本的完全分布式集群搭建过程

    hadoop2.2.0-linux-64bit安装包和源码包

    - **功能增强**:Hadoop 2.2.0 版本中的HDFS进行了多项改进,例如支持更多的元数据操作、增强了HA(High Availability)功能,使得集群在出现故障时能够更快地恢复。 - **性能提升**:通过对HDFS内部机制的优化,...

    如何在Windows下的eclipse调试Hadoop2.2.0分布式集群

    在Windows环境下,使用Eclipse进行Hadoop 2.2.0分布式集群的调试是一项...以上就是在Windows下的Eclipse中调试Hadoop 2.2.0分布式集群的关键步骤和知识点。熟练掌握这些技能,能够极大地提高Hadoop开发的效率和质量。

    hadoop2.2.0的64位安装包

    总结来说,安装64位的Hadoop 2.2.0涉及下载源代码、配置编译环境、编译源代码、安装和配置Hadoop以及启动服务。这个过程对于理解和掌握Hadoop的工作原理非常有帮助,同时也能确保在64位Linux系统上顺利运行大数据...

    hadoop2.2.0安装指南.docx

    总结来说,安装Hadoop 2.2.0的关键步骤包括:下载软件包、配置集群环境、设置SSH无密码登录、安装JDK并配置环境变量、调整Hadoop配置文件,以及启动服务。遵循这些步骤,可以顺利地在多台机器上构建一个基本的Hadoop...

    Hadoop2.2.0安装配置及实例教程入门宝典

    安装Hadoop2.2.0的步骤包括: 1. **环境准备**:确保你的系统为64位Linux环境,安装Java运行环境(JDK)并设置环境变量。 2. **下载Hadoop**:从Apache官网获取Hadoop2.2.0的tar.gz文件,并解压到指定目录,如/opt/...

    hadoop2.2.0部署

    - **待补充:** 这部分需要更详细的说明来指导用户如何顺利安装wmware11,包括系统的最低配置要求、安装过程中需要注意的关键步骤等。 **2. 安装CentOS 6.5** - **注意安装细节:** 在安装CentOS 6.5时,需特别关注...

    windows下连接hadoop2.2.0的eclipse+hadoop插件

    本文将详细讲解如何使用Eclipse与Hadoop 2.2.0插件进行连接,以便于在Windows操作系统上进行Hadoop相关的开发工作。 首先,我们需要确保已经安装了Eclipse IDE。Eclipse是一个开放源码的Java集成开发环境,适用于...

    hadoop2.2.0-lib-native-macos.zip

    首先,你需要解压“hadoop2.2.0-lib-native-macos.zip”,然后将解压得到的“native”目录复制到Hadoop安装目录的“lib/native”子目录下。确保Hadoop的配置文件(如`core-site.xml`和`hadoop-env.sh`)正确设置了...

    hadoop2.2.0windows10版

    总结,这个预配置的Hadoop 2.2.0 for Windows 10版本旨在简化在Windows环境下的安装和配置流程,尤其适合于电影推荐系统这样的大数据分析项目。用户只需解压并配置环境变量即可快速上手,无需对底层的复杂设置有深入...

    hadoop-2.2.0编译安装

    在本文中,我们将深入探讨如何在64位Linux CentOS 6.5系统上编译和安装Hadoop-2.2.0。Hadoop是一个开源的分布式系统基础架构,旨在简化大规模数据处理和存储。它的核心组件包括HDFS(Hadoop Distributed File System...

    Hadoop2.2.0Hbase0.98.1Hive0.13完全安装手册

    通过以上步骤,可以完成Hadoop2.2.0 + HBase0.98.1 + Sqoop1.4.4 + Hive0.13的安装。在实际操作过程中,可能还会遇到各种具体问题,需要根据实际情况进行调整。希望这份指南能够帮助大家顺利完成安装过程。

    hadoop2.2.0+Hbase0.96+hive0.12详细配置

    本文将详细介绍如何在Linux环境下搭建Hadoop2.2.0、HBase0.96和Hive0.12的集群环境。 首先,我们从Hadoop的安装开始。Hadoop2.2.0是Apache官方稳定版,可以从官方网站或镜像站点下载。下载完成后,将其上传到Linux...

    hadoop2.2.0 native

    标题中的“hadoop2.2.0 native”指的是Hadoop 2.2.0版本的本地库(Native Libraries)。这些本地库是用C++编写的,与Java代码交互,提供了更高效的数据处理能力,尤其是在I/O操作和内存管理方面。对于Linux 64位操作...

    Centos 6.4下搭建Hadoop 2.2.0完全分布式集群

    本文档堪称最齐全的Hadoop-2.2.0搭建手册,不管是对于生手,还是对于想自己动手搭建的生手来说,都是非常有用的;因为自己是生手,看网上好多步骤,但还是有不懂的地方,所以自己整理下来了齐全的生手版,希望对一切...

Global site tag (gtag.js) - Google Analytics