安装之前,首先打通机器无密码登录
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys把产生的密钥放到slave机器上,这样master就可以无密码登录slave了
1、 解压文件
将第一部分中下载的hadoop-2.2.tar.gz解压到/home/sm01路径下。然后为了节省空间,可删除此压缩文件,或将其存放于其他地方进行备份。将hadoop-2.2.0重命名为hadoop2
mkdir hadoop2 cp -r hadoop-2.2.0/* .
注意:每台机器的安装路径要相同!!
三台机器配置host映射
192.168.1.1 master 192.168.1.2 slave1 192.168.1.3 slave2
2、 hadoop配置过程
配置之前,需要在master本地文件系统创建以下文件夹:
~/dfs/name
~/dfs/data
~/dfs/temp
这里要涉及到的配置文件有7个:
~/hadoop2/etc/hadoop/hadoop-env.sh
~/hadoop2/etc/hadoop/yarn-env.sh
~/hadoop2/etc/hadoop/slaves
~/hadoop2/etc/hadoop/core-site.xml
~/hadoop2/etc/hadoop/hdfs-site.xml
~/hadoop2/etc/hadoop/mapred-site.xml
~/hadoop2/etc/hadoop/yarn-site.xml
以上个别文件默认不存在的,可以复制相应的template文件获得。
配置文件1:hadoop-env.sh
修改JAVA_HOME值(export JAVA_HOME=/usr/java/jdk1.7.0_40)
配置文件2:yarn-env.sh
修改JAVA_HOME值(exportJAVA_HOME=/usr/java/jdk1.7.0_40)
配置文件3:slaves (这个文件里面保存所有slave节点)
写入以下内容:
slave1 slave2
配置文件4:core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/home/sm01/hadoop2/dfs/temp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>hadoop.proxyuser.hduser.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hduser.groups</name> <value>*</value> </property> </configuration>
配置文件5:hdfs-site.xml
<configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>master:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/sm01/hadoop2/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/sm01/hadoop2/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration>
配置文件6:mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>master:19888</value> </property> </configuration>
配置文件7:yarn-site.xml
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>master:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:8088</value> </property> </configuration>
3、复制到其他节点
这里可以用无密码登录,这样比较容易复制,因为我后面要装hbase,所以无密码登录已经打通,可以直接用一下命令推送到其他机器上
scp -r hadoop2/ slave1:/home/sm01 scp -r hadoop2/ slave2:/home/sm01
4、启动验证
4.1 启动hadoop
进入安装目录: cd ~/hadoop2/
格式化namenode:./bin/hadoop namenode -format
注:如果格式化或者启动hadoop的nodename报错,则需要修改 conf/hadoop-env.sh,增加
export HADOOP_COMMON_HOME=/usr/hadoop/hadoop (hadoop的安装目录)
然后重新格式化namenode
启动: ./sbin/start-all.sh
此时在master上面运行的进程有:namenode secondarynamenode
slave上面运行的进程有:datanode
查看集群状态:./bin/hdfs dfsadmin –report
查看文件块组成: ./bin/hdfsfsck / -files -blocks
查看HDFS: http://192.168.1.1:50070
查看RM: http:// 192.168.1.1:8088
4.2 运行示例程序:
先在hdfs上创建一个文件夹
./bin/hdfs dfs –mkdir /input
./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jarrandomwriter input
相关推荐
### Hadoop2.2.0集群安装:QJM实现HA及Hdfs-site配置详解 #### 一、Hadoop2.2.0完全分布式集群平台安装设置概述 在深入探讨Hadoop2.2.0的安装过程之前,我们需要了解Hadoop的基本架构以及其核心组件——HDFS...
本文详细介绍了如何搭建 Hadoop 2.2.0 的集群,包括前期的环境准备、节点角色分配、Hadoop 和 ZooKeeper 的安装配置等关键步骤。通过这些步骤,用户可以成功地部署一个功能完备的 Hadoop 集群,支持大数据处理的各项...
Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程 按照文档中的操作步骤,一步步操作就可以完全实现hadoop2.2.0版本的完全分布式集群搭建过程
- **功能增强**:Hadoop 2.2.0 版本中的HDFS进行了多项改进,例如支持更多的元数据操作、增强了HA(High Availability)功能,使得集群在出现故障时能够更快地恢复。 - **性能提升**:通过对HDFS内部机制的优化,...
在Windows环境下,使用Eclipse进行Hadoop 2.2.0分布式集群的调试是一项...以上就是在Windows下的Eclipse中调试Hadoop 2.2.0分布式集群的关键步骤和知识点。熟练掌握这些技能,能够极大地提高Hadoop开发的效率和质量。
总结来说,安装64位的Hadoop 2.2.0涉及下载源代码、配置编译环境、编译源代码、安装和配置Hadoop以及启动服务。这个过程对于理解和掌握Hadoop的工作原理非常有帮助,同时也能确保在64位Linux系统上顺利运行大数据...
总结来说,安装Hadoop 2.2.0的关键步骤包括:下载软件包、配置集群环境、设置SSH无密码登录、安装JDK并配置环境变量、调整Hadoop配置文件,以及启动服务。遵循这些步骤,可以顺利地在多台机器上构建一个基本的Hadoop...
安装Hadoop2.2.0的步骤包括: 1. **环境准备**:确保你的系统为64位Linux环境,安装Java运行环境(JDK)并设置环境变量。 2. **下载Hadoop**:从Apache官网获取Hadoop2.2.0的tar.gz文件,并解压到指定目录,如/opt/...
- **待补充:** 这部分需要更详细的说明来指导用户如何顺利安装wmware11,包括系统的最低配置要求、安装过程中需要注意的关键步骤等。 **2. 安装CentOS 6.5** - **注意安装细节:** 在安装CentOS 6.5时,需特别关注...
本文将详细讲解如何使用Eclipse与Hadoop 2.2.0插件进行连接,以便于在Windows操作系统上进行Hadoop相关的开发工作。 首先,我们需要确保已经安装了Eclipse IDE。Eclipse是一个开放源码的Java集成开发环境,适用于...
首先,你需要解压“hadoop2.2.0-lib-native-macos.zip”,然后将解压得到的“native”目录复制到Hadoop安装目录的“lib/native”子目录下。确保Hadoop的配置文件(如`core-site.xml`和`hadoop-env.sh`)正确设置了...
总结,这个预配置的Hadoop 2.2.0 for Windows 10版本旨在简化在Windows环境下的安装和配置流程,尤其适合于电影推荐系统这样的大数据分析项目。用户只需解压并配置环境变量即可快速上手,无需对底层的复杂设置有深入...
在本文中,我们将深入探讨如何在64位Linux CentOS 6.5系统上编译和安装Hadoop-2.2.0。Hadoop是一个开源的分布式系统基础架构,旨在简化大规模数据处理和存储。它的核心组件包括HDFS(Hadoop Distributed File System...
通过以上步骤,可以完成Hadoop2.2.0 + HBase0.98.1 + Sqoop1.4.4 + Hive0.13的安装。在实际操作过程中,可能还会遇到各种具体问题,需要根据实际情况进行调整。希望这份指南能够帮助大家顺利完成安装过程。
本文将详细介绍如何在Linux环境下搭建Hadoop2.2.0、HBase0.96和Hive0.12的集群环境。 首先,我们从Hadoop的安装开始。Hadoop2.2.0是Apache官方稳定版,可以从官方网站或镜像站点下载。下载完成后,将其上传到Linux...
标题中的“hadoop2.2.0 native”指的是Hadoop 2.2.0版本的本地库(Native Libraries)。这些本地库是用C++编写的,与Java代码交互,提供了更高效的数据处理能力,尤其是在I/O操作和内存管理方面。对于Linux 64位操作...
本文档堪称最齐全的Hadoop-2.2.0搭建手册,不管是对于生手,还是对于想自己动手搭建的生手来说,都是非常有用的;因为自己是生手,看网上好多步骤,但还是有不懂的地方,所以自己整理下来了齐全的生手版,希望对一切...