-------------------------------------------------------------------------------
0 安装环境配置说明
Hadoop2.2安装在redhat6.8-64位服务器,256G内存,4路CPU。
1 安装环境配置说明
序号 |
主机名 |
用途 |
IP地址 |
|
1 |
hadoop1 |
1Hadoop的管理节点(namenode),管理文件系统的元数据,为主节点,状态设置为active状态; 2 Hadoop的数据节点(datanode); |
192.168.1.100 |
|
2 |
Hadoop2 |
1 Hadoop的管理节点(namenode),管理文件系统的元数据,为副节点,状态设置为standby(和oracle中dataguard的副节点一样),若hadoop1坏掉,则将此节点激活; 2 Hadoop的数据节点(datanode); |
192.168.1.101 |
|
3 |
Hadoop3 |
Hadoop的数据节点(datanode) |
192.168.1.102 |
|
2准备安装环境
2.1 修改主机名
1运行setup,网络配置-》dns配置,注销录 (修改linux主机名方法很多,下面提供一种解决方法)
2 输入命令:hostname hadoop1(修改主机名,在root下执行)
输入命令:hostname hadoop1
3 hostname查看主机名是否修改
输入命令:hostname
4将三台主机依次修改为hadoop1、hadoop2、hadoop3
2.2 修改host文件
1修改/etc/hosts文件
输入命令:vim /etc/hosts
127.0.0.1 localhost.localdomainlocalhost.localdomain localhost4 localhost4.localdomain4
::1 localhost.localdomain localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.100 hadoop1
192.168.1.101 hadoop2
192.168.1.102 hadoop3
在hosts文件中增加红色字体内容,ip地址为事先规划好的ip地址,详细见“hadoop2.2三节点安装详细配置表”。
2 3台hadoop主机都需要进行1的方式修改hosts文件
2.4 设置java环境变量
说明:java与hadoop都安装在/opt路径下
1创建hadoop账户
输入命令:useradd haddoop
修改hadoop密码
输入命令修改hadoop用户密码:passwd hadoop
2 准备安装文件
1)将hadoop安装文件hadoop-2.2.0.tar.gz上传到/opt路径下
2)将jdk文件jdk-6u45-linux-x64.bin上次到/opt路径下
3授予jdk安装权限
chomod +x jdk-6u45-linux-x64.bin
4安装jdk文件
输入命令:cd /opt
输入命令:./ jdk-6u45-linux-x64.bin
安装后的路径为:/opt/jdk1.6.0_45
5配置java环境变量
切换到hadoop用户
输入命令:su - hadoop
输入命令:vim .bashrc
在最后增加下面的代码
export JAVA_HOME=/opt/jdk1.6.0_45
export CLASSPATH=.:$JAVA_HOME/lib
export PATH=$JAVA_HOME/bin:$PATH
6使设置的环境变量生效
输入命令:source .bashrc
7查看是java环境是否设置成功
输入命令:java -version
显示:Java HotSpot(TM) 64-Bit Server VM (build 20.45-b01, mixed mode)
表示设置成功,如下图所示
3 Hadoop安装过程
注意:hadoop安装过程使用hadoop账户进行操作
3.1 设置三台主机互相授信
1在hadoop1主机上使用hadoop账户登录后输入命令:ssh-keygen
所有过程直接回车
命令执行后将在/home/hadoop路径下生成一个隐形目录.ssh,该目录下有以下几个文件:
1) authorized_keys
2) id_rsa
3) id_rsa.pub
4) known_hosts
2制作授权文件
输入命令:cat id_rsa.pub>> authorized_keys
3在hadoop2主机上使用hadoop账户登录后输入命令:ssh-keygen
所有过程直接回车,同第一台主机hadoop1操作
4将主机hadoop1的/home/hadoop/.ssh目录下的文件authorized_keys拷贝至主机hadoop2的/home/hadoop/.ssh目录下
5在主机hadoop2上输入命令(进入/home/hadoop/.ssh目录下):
catid_rsa.pub >> authorized_keys
6 在hadoop3主机上使用hadoop账户登录后输入命令:ssh-keygen
所有过程直接回车,同第一台主机hadoop1操作
7将主机hadoop2的/home/hadoop/.ssh目录下的文件authorized_keys拷贝至主机hadoop3的/home/hadoop/.ssh目录下
8在主机hadoop3上输入命令(进入/home/hadoop/.ssh目录下):
catid_rsa.pub >> authorized_keys
9将主机hadoop3上/home/hadoop/.ssh目录下的authorized_keys文件拷贝至主机hadoop1和hadoop2的/home/hadoop/.ssh目录下,生成完的authorized_keys大约1K大小
10设置三台主机.ssh目录的权限为777
cd /home/hadoop/
chmod 700.ssh
11分别设置三台主机的authorized_keys的权限
cd /home/hadoop/.ssh
chmod 644 authorized_keys
12验证是三台主机是否建立信任
1)第1台hadoop1上验证,第一次验证的时候需要输入root密码,输入一次后即可存储,后面就不需要输入了
输入命令:ssh hadoop2
输入命令(跟上面一样操作):ssh hadoop3
2)第2台hadoop2上验证,第一次验证的时候需要输入root密码,输入一次后即可存储,后面就不需要输入了
输入命令:ssh hadoop1
输入命令:ssh hadoop3
3)第3台hadoop3上验证,第一次验证的时候需要输入root密码,输入一次后即可存储,后面就不需要输入了
输入命令:ssh hadoop1
输入命令:ssh hadoop2
3.2 修改hadoop配置文件
1 hdfs-site.xml配置文件节点说明
2 hdfs-site.xml配置文件
<configuration>
<property><name>dfs.namenode.name.dir</name><value>/hadoop/namenode</value></property>
<property><name>dfs.datanode.data.dir</name><value>/hadoop/datanode</value></property>
<property><name>dfs.permissions</name><value>false</value></property>
<property><name>dfs.namenode.shared.edits.dir</name><value>/nameswap_nfs</value></property>
<property><name>dfs.nameservices</name><value>h2n</value></property>
<property><name>dfs.ha.namenodes.h2n712</name><value>n1,n2</value></property>
<property><name>dfs.namenode.rpc-address.h2n.n1</name><value>hadoop1:9000</value></property>
<property><name>dfs.namenode.http-address.h2n.n1</name><value>hadoop1:50070</value></property>
<property><name>dfs.namenode.rpc-address.h2n.n2</name><value>hadoop2:9000</value></property>
<property><name>dfs.namenode.http-address.h2n.n2</name><value>hadoop2:50070</value></property>
<property><name>dfs.replication</name><value>1</value></property>
<property>
<name>dfs.client.failover.proxy.provider.h2n</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property><name>dfs.ha.fencing.methods</name><value>sshfence</value></property>
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name><value>/home/hadoop/.ssh/id_rsa</value>
</property>
</configuration>
3core-site.xml配置文件
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://h2n</value>
</property>
</configuration>
3 hadoop-env.sh配置文件
export JAVA_HOME=/usr/jdk/jdk1.6.0_35
如配置了JAVA_HOME,也可直接使用:
exportJAVA_HOME=${JAVA_HOME}
3.3 hadoop2.2安装(待续)
相关推荐
《Hadoop 2.2 安装手册》是针对大数据处理框架Hadoop 2.2的详尽安装指南,特别适合初学者和有经验的IT专业人员参考。这份手册不仅包含了文字描述,还配有完整的截图,使安装过程更加直观易懂。在本文中,我们将深入...
Hadoop 2.2安装部署手册是一份详细的指南,用于在集群上安装和配置Hadoop版本2.2以及相关生态系统组件。根据提供的文件信息,可以总结出以下知识点: 1. 集群规划与主机名修改: - 在集群规划时,首先需要修改各...
### hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结 #### 一、Hadoop2.2的安装 **问题导读:** 1. Hadoop的安装需要安装哪些软件? 2. Hadoop与HBase整合需要注意哪些问题? 3. Hive与HBase的...
### Hadoop完全分布式安装手册 #### 一、环境规划与准备 在进行Hadoop的完全分布式安装之前,首先需要对整个环境进行规划和必要的准备工作。根据文档提供的信息,本手册将涉及以下三个主要方面: 1. **JDK安装**...
### 英特尔Hadoop发行版 2.2 管理手册知识点解析 #### 一、概述 **Intel® Manager for Hadoop**是英特尔针对Apache Hadoop开发的一款集成了安装、配置、监控和管理Hadoop集群的强大工具。它简化了Hadoop集群的...
本篇内容将详细讲解如何在Hadoop 2.2的基础上安装配置HBase 0.96和ZooKeeper 3.4.5。首先,我们需要了解这两个组件的基本概念和作用。 **ZooKeeper的安装与配置** 1. **下载与解压**:首先,从官方网站获取...
### CDH5 Hadoop发行版离线安装手册 #### 基本概念 **1.1 什么是CDH** CDH是由Cloudera公司提供的Hadoop发行版,它基于Apache Hadoop项目的核心组件进行增强和封装,提供了一个更加稳定、可靠、易于管理和使用的...
Hadoop集群扩容操作手册 在大数据处理中,Hadoop集群的存储空间是非常宝贵的。当集群的磁盘快满时,需要对集群进行扩容。扩容操作可以分为两种方法:增加存储容量和对数据进行压缩存储。 1. 增加存储容量 增加...
### Hadoop命令使用手册中文版知识点详解 #### 一、Hadoop概述 Hadoop是一款开源软件框架,主要用于处理大规模数据集(通常在集群环境中)。它能够高效地存储和处理非常大的数据集,使得用户能够在相对较低成本的...
### Hadoop集群配置及MapReduce开发手册知识点梳理 #### 一、Hadoop集群配置 **1.1 环境说明** - **操作系统**: CentOS 5 - **JDK版本**: Sun Java 6 - **SSH**: 已安装 - **Eclipse版本**: 3.4.2 (Linux版) - **...
### Hadoop集群配置及MapReduce开发手册知识点梳理 #### 一、Hadoop集群配置说明 ##### 1.1 环境说明 本手册适用于基于CentOS 5系统的Hadoop集群配置,具体环境配置如下: - **操作系统**:CentOS 5 - **JDK版本...
### Hadoop 3.1.2 完全分布式集群安装指南 #### 一、基础知识与前期准备 **1.1 常用 Shell 命令** 为了更好地理解和执行 Hadoop 的安装步骤,首先需要掌握一些基本的 Linux 命令。 **1.1.1 sudo 命令** - **...
#### 三、Hadoop安装及配置 ##### 3.1 通用部分安装及配置 在完成基本环境搭建之后,接下来是Hadoop软件本身的安装与配置。 1. **下载Hadoop-2.6.0安装包**,并解压至指定目录。 2. **配置Hadoop环境变量**: - ...
2.6.1 HDFS 的三大磁盘目录检测扫描服务…·…………………………… ………… …………… 98 2.6 .2 Diskαiecker : 坏盘检测服务..... ...... ...........… ……... ......… ………… . .. .... ...……. 99 ...
TranswarpDataHub是星环信息科技(上海)有限公司推出的分布式大数据处理平台,包含Apache Hadoop 2.2版本的核心组件。Transwarp安装运维手册是一个操作指南,用于指导用户如何在服务器集群上安装、部署、管理和维护...
### Ubuntu 8.10 下 Hadoop-0.20.1 集群配置详细手册 #### 一、集群网络环境介绍 集群由三个节点组成:1个Namenode和2个Datanode,这些节点通过局域网连接,确保它们之间能够互相ping通。以下是各节点的IP地址分配...
本手册为初学者提供Hadoop入门知识,包括安装、配置、使用Hadoop服务,以及通过实例加深理解。提供了HDFS、MapReduce、Zookeeper和YARN等核心组件的详细使用说明。 2. Hadoop入门 入门部分介绍了Hadoop的安装过程,...