Installing hadoop 2.2.0 clusters with 3 nodes(one for namenode/resourcemanager and secondary namenode while the other tow nodes for datanode/nodemanager)
1. ip assignments
192.168.122.1 namenode
192.168.122.2 datanode
192.168.122.3 datanode
2. download the latest stable hadoop tarball (2.2.0) and untar it to /home/xxx/hadoop/hadoop-2.2.0
3. prepare the runtime enviroments
a. java
install oracle java 1.7.0 and set JAVA_HOME
b. ssh without passphase
b1. make sure the namenode has ssh client and server using the following commands
#which ssh / which sshd / which ssh-keygen
b2. generate ssh key pair
#ssh-keygen -t rsa
the above commond will produce three files in ~/.ssh dir
b3.dirstribute public key and validate logins
#scp ~/.ssh/id_rsa.pub zhj@192.168.122.2:~/authorized_keys
#scp ~/.ssh/id_rsa.pub zhj@192.168.122.3:~/authorized_keys
---
login 192.168.122.2 and 192.168.122.3 and run the following commands
#mkdir ~/.shh
#chmod 700 ~/.ssh
#mv ~/authorized_keys ~/.ssh/
#chmod 600 ~/.ssh/authorized_keys
IF the ssh still prompts your enter password to login, the execute the following commnads
$ chmod go-w $HOME $HOME/.ssh
$ chmod 600 $HOME/.ssh/authorized_keys
$ chown `whoami` $HOME/.ssh/authorized_keys
4. edit the core config files for hadoop clusters (nonsecurity mode)
core-site.xml
hdfs-site.xml ( dfs.namenode.hosts is important)
yarn-site.xml
mapred-site.xml
-----
dfs.namenode.hosts -> hosts.txt
the content for hosts.txt like following(the ips for every datanode in the cluster):
192.168.122.2
192.168.122.3
5.edit /etc/hosts in 192.168.122.1 (without DNS)
192.168.122.1 host.dataminer
192.168.122.2 f1.zhj
192.168.122.3 f2.zhj
meanwhile edit the /etc/hosts in 192.168.122.2/3
127.0.0.1 f1.zhj
6.edit ~/.bashrc and HADOOP_HOME \ HADOOP_CONF_DIR while append the bin and sbin dir to PATH
run the command to make it effective. #source ~/.bashrc
NOTE: the sample hadoop cluster is based on my notebook with Ubuntu13.10 with KVM which hosts the other two datanode with fedora20.
References:
http://allthingshadoop.com/2010/04/20/hadoop-cluster-setup-ssh-key-authentication/
相关推荐
Hadoop 2.2.0 是 Apache Hadoop 的一个关键版本,它包含了众多改进和优化,使得这个分布式计算框架在处理大数据集时更加高效和稳定。在这个配置文件中,我们将会探讨Hadoop 2.2.0 在4台CentOS 6.4系统上运行所需的...
根据提供的文件标题、描述、标签以及部分内容,我们可以推断出这份文档主要涉及Hadoop 2.2.0版本在Linux 64位系统上的安装包和源码包的相关信息。以下将详细介绍与这些关键词相关的重要知识点。 ### Hadoop 2.2.0 ...
【Hadoop 2.2.0 知识点详解】 Hadoop是Apache软件基金会开发的一个开源框架,专门设计用于处理和存储大规模数据。Hadoop 2.2.0是其一个重要版本,它在Hadoop 1.x的基础上进行了大量的优化和改进,增强了系统的稳定...
hadoop2.2.0/2.6.0/2.7.0/2.7.1 64位安装包。
4. 安装:使用`make install`命令将编译后的Hadoop安装到指定的目录,例如`/usr/local/hadoop`。 在编译完成后,你可以通过运行Hadoop的可执行文件,如`hadoop`或`hdfs`,来验证安装是否成功。但在这之前,还需要...
Hadoop 2.2.0 是一个重要的分布式计算框架,主要设计用于处理和存储大量数据。这个64位的native文件是Hadoop针对64位Linux操作系统编译的一组库文件,它们对于Hadoop在Linux环境下高效运行至关重要。在Hadoop的源...
Hadoop2.2.0安装配置手册,新手安装和配置
资源名称:CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南内容简介: CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南主要讲述的是CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南;...
### Hadoop2.2.0集群安装:QJM实现HA及Hdfs-site配置详解 #### 一、Hadoop2.2.0完全分布式集群平台安装设置概述 在深入探讨Hadoop2.2.0的安装过程之前,我们需要了解Hadoop的基本架构以及其核心组件——HDFS...
标题中的“Hadoop2.2.0环境测试详细傻瓜说明”表明了本文将要讨论的是关于Hadoop 2.2.0版本的环境配置和简单的应用测试,特别是针对新手的指南。描述中的“配置以后的一些测试,wordcount啥的,有信心的就不用下了”...
hadoop2.2.0 eclipse插件-重新编译过。hadoop用的是hadoop2.2.0版本,eclipse用的是 eclipse-kepler。 插件 eclipse-kepler
在CentSO_64bit集群搭建,hadoop2.2(64位)编译 新版亮点: 基于yarn计算框架和高可用性DFS的第一个稳定版本。 注1:官网只提供32位release版本, 若机器为64位,需要手动编译。 环境配置是个挺烦人的活,麻烦不说还...
Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程 按照文档中的操作步骤,一步步操作就可以完全实现hadoop2.2.0版本的完全分布式集群搭建过程
《Hadoop 2.2.0 安装指南》 Hadoop是一款开源的分布式计算框架,主要用于处理和存储海量数据。本文将详细讲解如何在Linux环境下安装Hadoop 2.2.0版本。 首先,从Apache官方网站下载Hadoop 2.2.0的最新版本。请注意...
《Hadoop2.2.0安装配置及实例教程入门宝典》 在大数据处理领域,Hadoop是一个不可或缺的工具,其分布式存储和计算能力为企业级数据处理提供了强大的支持。本教程将带你逐步走进Hadoop的世界,从零开始,教你如何在...
### Hadoop 2.2.0 部署详尽指南 #### 一、安装Linux **1. 安装wmware11** - **待补充:** 这部分需要更详细的说明来指导用户如何顺利安装wmware11,包括系统的最低配置要求、安装过程中需要注意的关键步骤等。 **...
Hadoop 2.2.0 分布式安装指导
Hadoop 2.2.0版本是Hadoop发展过程中的一个重要里程碑,引入了许多改进和新特性,增强了系统的稳定性和性能。本篇文章将深入探讨Hadoop 2.2.0开发过程中依赖的jar包及其重要性。 首先,我们要理解的是,Java ...