`
moss
  • 浏览: 7560 次
文章分类
社区版块
存档分类
最新评论

Hadoop2.2三节点安装手册

阅读更多
微信公众号:构建设计编程
 

-------------------------------------------------------------------------------

 

安装环境配置说明

Hadoop2.2安装在redhat6.8-64位服务器,256G内存,4路CPU。

 

安装环境配置说明

 

序号

主机名

用途

IP地址

 

1

hadoop1

1Hadoop的管理节点(namenode),管理文件系统的元数据,为主节点,状态设置为active状态;

2 Hadoop的数据节点(datanode);

192.168.1.100

 
 
 

2

Hadoop2

1 Hadoop的管理节点(namenode),管理文件系统的元数据,为副节点,状态设置为standby(和oracledataguard的副节点一样),若hadoop1坏掉,则将此节点激活;

2 Hadoop的数据节点(datanode);

192.168.1.101

 
 
 

3

Hadoop3

Hadoop的数据节点(datanode)

192.168.1.102

 
 
 

 

 

 

2准备安装环境

2.1 修改主机名

1运行setup,网络配置-dns配置,注销录 (修改linux主机名方法很多,下面提供一种解决方法)

2 输入命令:hostname  hadoop1(修改主机名,在root下执行)

输入命令:hostname hadoop1

 

3 hostname查看主机名是否修改

输入命令:hostname

 

4将三台主机依次修改为hadoop1hadoop2hadoop3

 

 

2.2 修改host文件

1修改/etc/hosts文件

输入命令:vim /etc/hosts

127.0.0.1 localhost.localdomainlocalhost.localdomain localhost4  localhost4.localdomain4

::1 localhost.localdomain  localhost.localdomain  localhost6  localhost6.localdomain6

192.168.1.100  hadoop1

192.168.1.101  hadoop2

192.168.1.102  hadoop3

hosts文件中增加红色字体内容,ip地址为事先规划好的ip地址,详细见“hadoop2.2三节点安装详细配置表”。

 

2  3hadoop主机都需要进行1的方式修改hosts文件

 

 

2.4 设置java环境变量

说明:java与hadoop都安装在/opt路径下

 

1创建hadoop账户

输入命令:useradd haddoop

修改hadoop密码

输入命令修改hadoop用户密码:passwd hadoop

 

2        准备安装文件

1)hadoop安装文件hadoop-2.2.0.tar.gz上传到/opt路径下

2)jdk文件jdk-6u45-linux-x64.bin上次到/opt路径下

  

3授予jdk安装权限

chomod  +x  jdk-6u45-linux-x64.bin

 

4安装jdk文件

输入命令:cd  /opt 

输入命令:./ jdk-6u45-linux-x64.bin

安装后的路径为:/opt/jdk1.6.0_45

 

5配置java环境变量

切换到hadoop用户

输入命令:su  -  hadoop

输入命令:vim   .bashrc

在最后增加下面的代码

export JAVA_HOME=/opt/jdk1.6.0_45

export CLASSPATH=.:$JAVA_HOME/lib

export PATH=$JAVA_HOME/bin:$PATH

 

6使设置的环境变量生效

输入命令:source .bashrc

 

7查看是java环境是否设置成功

输入命令:java -version

显示:Java HotSpot(TM) 64-Bit Server VM (build 20.45-b01, mixed mode)

表示设置成功,如下图所示


 

 

3 Hadoop安装过程

注意hadoop安装过程使用hadoop账户进行操作

3.1 设置三台主机互相授信

1hadoop1主机上使用hadoop账户登录后输入命令ssh-keygen

所有过程直接回车

 

命令执行后将在/home/hadoop路径下生成一个隐形目录.ssh,该目录下有以下几个文件:

1) authorized_keys 

2) id_rsa

3) id_rsa.pub

4) known_hosts

 

 

2制作授权文件

输入命令:cat id_rsa.pub>> authorized_keys

 

3hadoop2主机上使用hadoop账户登录后输入命令ssh-keygen

所有过程直接回车,同第一台主机hadoop1操作

 

4将主机hadoop1/home/hadoop/.ssh目录下的文件authorized_keys拷贝至主机hadoop2/home/hadoop/.ssh目录下

 

5在主机hadoop2上输入命令(进入/home/hadoop/.ssh目录下)

catid_rsa.pub >> authorized_keys

 

6 hadoop3主机上使用hadoop账户登录后输入命令ssh-keygen

所有过程直接回车,同第一台主机hadoop1操作

 

7将主机hadoop2/home/hadoop/.ssh目录下的文件authorized_keys拷贝至主机hadoop3/home/hadoop/.ssh目录下

 

8在主机hadoop3上输入命令(进入/home/hadoop/.ssh目录下)

catid_rsa.pub >> authorized_keys

 

9将主机hadoop3/home/hadoop/.ssh目录下的authorized_keys文件拷贝至主机hadoop1hadoop2/home/hadoop/.ssh目录下,生成完的authorized_keys大约1K大小

 

10设置三台主机.ssh目录的权限为777

cd /home/hadoop/

chmod 700.ssh

 

11分别设置三台主机的authorized_keys的权限

cd /home/hadoop/.ssh

chmod  644  authorized_keys

 

12验证是三台主机是否建立信任

1)1hadoop1上验证,第一次验证的时候需要输入root密码,输入一次后即可存储,后面就不需要输入了

 

 

 

输入命令:ssh hadoop2

输入命令(跟上面一样操作):ssh hadoop3

 

2)2hadoop2上验证,第一次验证的时候需要输入root密码,输入一次后即可存储,后面就不需要输入了

输入命令:ssh hadoop1

输入命令:ssh hadoop3

 

3)3hadoop3上验证,第一次验证的时候需要输入root密码,输入一次后即可存储,后面就不需要输入了

输入命令:ssh hadoop1

输入命令:ssh hadoop2

 

3.2 修改hadoop配置文件

1  hdfs-site.xml配置文件节点说明

 

 

 

2 hdfs-site.xml配置文件

<configuration>

<property><name>dfs.namenode.name.dir</name><value>/hadoop/namenode</value></property>

<property><name>dfs.datanode.data.dir</name><value>/hadoop/datanode</value></property>

<property><name>dfs.permissions</name><value>false</value></property>

<property><name>dfs.namenode.shared.edits.dir</name><value>/nameswap_nfs</value></property>

<property><name>dfs.nameservices</name><value>h2n</value></property>

<property><name>dfs.ha.namenodes.h2n712</name><value>n1,n2</value></property>

<property><name>dfs.namenode.rpc-address.h2n.n1</name><value>hadoop1:9000</value></property>

<property><name>dfs.namenode.http-address.h2n.n1</name><value>hadoop1:50070</value></property>

<property><name>dfs.namenode.rpc-address.h2n.n2</name><value>hadoop2:9000</value></property>

<property><name>dfs.namenode.http-address.h2n.n2</name><value>hadoop2:50070</value></property>

<property><name>dfs.replication</name><value>1</value></property>

<property>

<name>dfs.client.failover.proxy.provider.h2n</name>

<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

</property>

<property><name>dfs.ha.fencing.methods</name><value>sshfence</value></property>

<property>

<name>dfs.ha.fencing.ssh.private-key-files</name><value>/home/hadoop/.ssh/id_rsa</value>

</property>

</configuration>

 

 

3core-site.xml配置文件

<configuration>

<property>

         <name>fs.defaultFS</name>

         <value>hdfs://h2n</value>

</property>

</configuration>

 

3 hadoop-env.sh配置文件

export JAVA_HOME=/usr/jdk/jdk1.6.0_35

如配置了JAVA_HOME,也可直接使用:

exportJAVA_HOME=${JAVA_HOME}

 

3.3 hadoop2.2安装(待续)

 
---------------------------------------------------------------------------------------------
 
微信公众号上有完整版本,请订阅微信公众号后查看
微信公众号:构建设计编程
 

 

 

分享到:
评论

相关推荐

    Hadoop2.2 安装手册

    《Hadoop 2.2 安装手册》是针对大数据处理框架Hadoop 2.2的详尽安装指南,特别适合初学者和有经验的IT专业人员参考。这份手册不仅包含了文字描述,还配有完整的截图,使安装过程更加直观易懂。在本文中,我们将深入...

    HADOOP2.2安装部署手册

    Hadoop 2.2安装部署手册是一份详细的指南,用于在集群上安装和配置Hadoop版本2.2以及相关生态系统组件。根据提供的文件信息,可以总结出以下知识点: 1. 集群规划与主机名修改: - 在集群规划时,首先需要修改各...

    hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结

    ### hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结 #### 一、Hadoop2.2的安装 **问题导读:** 1. Hadoop的安装需要安装哪些软件? 2. Hadoop与HBase整合需要注意哪些问题? 3. Hive与HBase的...

    hadoop完全安装手册

    ### Hadoop完全分布式安装手册 #### 一、环境规划与准备 在进行Hadoop的完全分布式安装之前,首先需要对整个环境进行规划和必要的准备工作。根据文档提供的信息,本手册将涉及以下三个主要方面: 1. **JDK安装**...

    英特尔Hadoop发行版 2.2 管理手册

    ### 英特尔Hadoop发行版 2.2 管理手册知识点解析 #### 一、概述 **Intel® Manager for Hadoop**是英特尔针对Apache Hadoop开发的一款集成了安装、配置、监控和管理Hadoop集群的强大工具。它简化了Hadoop集群的...

    HBase0.96+zookeeper3.4.5安装配置(基于HADOOP2.2)

    本篇内容将详细讲解如何在Hadoop 2.2的基础上安装配置HBase 0.96和ZooKeeper 3.4.5。首先,我们需要了解这两个组件的基本概念和作用。 **ZooKeeper的安装与配置** 1. **下载与解压**:首先,从官方网站获取...

    CDH5Hadoop发行版离线安装手册.docx

    ### CDH5 Hadoop发行版离线安装手册 #### 基本概念 **1.1 什么是CDH** CDH是由Cloudera公司提供的Hadoop发行版,它基于Apache Hadoop项目的核心组件进行增强和封装,提供了一个更加稳定、可靠、易于管理和使用的...

    Hadoop集群扩容操作手册

    Hadoop集群扩容操作手册 在大数据处理中,Hadoop集群的存储空间是非常宝贵的。当集群的磁盘快满时,需要对集群进行扩容。扩容操作可以分为两种方法:增加存储容量和对数据进行压缩存储。 1. 增加存储容量 增加...

    Hadoop命令使用手册中文版

    ### Hadoop命令使用手册中文版知识点详解 #### 一、Hadoop概述 Hadoop是一款开源软件框架,主要用于处理大规模数据集(通常在集群环境中)。它能够高效地存储和处理非常大的数据集,使得用户能够在相对较低成本的...

    Hadoop集群配置及MapReduce开发手册

    ### Hadoop集群配置及MapReduce开发手册知识点梳理 #### 一、Hadoop集群配置 **1.1 环境说明** - **操作系统**: CentOS 5 - **JDK版本**: Sun Java 6 - **SSH**: 已安装 - **Eclipse版本**: 3.4.2 (Linux版) - **...

    hadoop集群配置及mapreduce开发手册

    ### Hadoop集群配置及MapReduce开发手册知识点梳理 #### 一、Hadoop集群配置说明 ##### 1.1 环境说明 本手册适用于基于CentOS 5系统的Hadoop集群配置,具体环境配置如下: - **操作系统**:CentOS 5 - **JDK版本...

    Hadoop3.1.2安装手册.pdf

    ### Hadoop 3.1.2 完全分布式集群安装指南 #### 一、基础知识与前期准备 **1.1 常用 Shell 命令** 为了更好地理解和执行 Hadoop 的安装步骤,首先需要掌握一些基本的 Linux 命令。 **1.1.1 sudo 命令** - **...

    Hadoop-2.6.0分布式部署参考手册

    #### 三、Hadoop安装及配置 ##### 3.1 通用部分安装及配置 在完成基本环境搭建之后,接下来是Hadoop软件本身的安装与配置。 1. **下载Hadoop-2.6.0安装包**,并解压至指定目录。 2. **配置Hadoop环境变量**: - ...

    hadoop大数据实战手册

    2.6.1 HDFS 的三大磁盘目录检测扫描服务…·…………………………… ………… …………… 98 2.6 .2 Diskαiecker : 坏盘检测服务..... ...... ...........… ……... ......… ………… . .. .... ...……. 99 ...

    Transwarp安装运维手册

    TranswarpDataHub是星环信息科技(上海)有限公司推出的分布式大数据处理平台,包含Apache Hadoop 2.2版本的核心组件。Transwarp安装运维手册是一个操作指南,用于指导用户如何在服务器集群上安装、部署、管理和维护...

    Ubuntu 8.10下Hadoop-0.20.1集群配置详细手册

    ### Ubuntu 8.10 下 Hadoop-0.20.1 集群配置详细手册 #### 一、集群网络环境介绍 集群由三个节点组成:1个Namenode和2个Datanode,这些节点通过局域网连接,确保它们之间能够互相ping通。以下是各节点的IP地址分配...

    Redoop CRH 4.9 X86_Hadoop

    本手册为初学者提供Hadoop入门知识,包括安装、配置、使用Hadoop服务,以及通过实例加深理解。提供了HDFS、MapReduce、Zookeeper和YARN等核心组件的详细使用说明。 2. Hadoop入门 入门部分介绍了Hadoop的安装过程,...

Global site tag (gtag.js) - Google Analytics