`

hadoop 2.2.0安装开发环境单机版本以及集群版本

 
阅读更多

*********************单机版版

1、环境:VMware虚拟机、LINUX 64位系统、搭建单机版hadoop2.2.0

2、新建hadoop用户、组,用于安装部署hadoop2.2.0

3、下载hadoop-2.2.0.tar.gz(hadoop官网下载)以及jdk-6u45-linux-x64.bin(ORACE官网下载)

4、上传到虚拟机上在hadoop用户下解压、安装

5、配置如下:

5.1 vi  /etc/hosts下添加

192.168.153.150   nn01

--去掉127.0.0.1

5.2在hadoop用户环境变量里添加如下:PATH=$PATH:$HOME/bin
export JAVA_HOME=/jdk1.6.0_45
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
export HADOOP_HOME=/hadoop/hadoop-2.2.0
export PATH=$PATH:$HADOOP_HOME
# Hadoop
export HADOOP_PREFIX="/hadoop/hadoop-2.2.0"
export PATH=$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin
export HADOOP_COMMON_HOME=${HADOOP_PREFIX}
export HADOOP_HDFS_HOME=${HADOOP_PREFIX}
export HADOOP_MAPRED_HOME=${HADOOP_PREFIX}
export HADOOP_YARN_HOME=${HADOOP_PREFIX}
export PATH=$PATH:$HADOOP_PREFIX

5.3让profile生效

source .bash_profile

5.4更改hadoop配置文件,hadoop-2.2.0/etc/hadoop下更改core-site.xml

<property>
   <name>fs.default.name</name>
   <value>hdfs://192.168.153.150:9000</value>
   <final>true</final>
</property>

5.5更改hadoop-env.sh

添加export JAVA_HOME=/jdk1.6.0_45

5.6更改hdfs-site.xml,添加

<configuration>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/hadoop/dfs/data</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/hadoop/dfs/name</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
</configuration>

5.7更改mapred-site.xml

<configuration>
<property> 
  <name>mapreduce.framework.name</name> 
  <value>yarn</value> 
</property> 
 
<property> 
  <name>mapred.system.dir</name> 
  <value>file:/hadoop/mapred/system</value> 
  <final>true</final> 
</property> 
 
<property> 
  <name>mapred.local.dir</name> 
  <value>file:/hadoop/mapred/local</value> 
  <final>true</final> 
</property>
</configuration>

5.8更改yarn-site.xml

<configuration>
<!-- Site specific YARN configuration properties -->
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
                <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>
                <name>yarn.resourcemanager.webapp.address</name>
                <value>192.168.153.150:8088</value>
        </property>
        <property> 
                <name>yarn.resourcemanager.hostname</name> 
                <value>192.168.153.150</value> 
                <description>hostanem of RM</description> 
        </property>
</configuration>

5.9更改yarn-env.sh

新增export JAVA_HOME=/jdk1.6.0_45

6.0配置完成后,格式化namenode

hdfs namenode -format

格式化时看是否有报错信息

6.1格式化完成后,启动namenode、datanode、ResourceManager、NodeManager

$ hadoop-daemon.sh start namenode 

$ hadoop-daemon.sh start datanode

$yarn-daemon.sh start resourcemanager 

$ yarn-daemon.sh start nodemanager

最后查看进程jps

[hadoop@nn01 sbin]$ jps
4097 Jps
3371 ResourceManager
3134 NameNode
3224 DataNode
3607 NodeManager

会有以上几个进程

6.2访问管理页面地址

http://192.168.153.150:50070/

6.3访问yarn页面地址

http://192.168.153.150:8088

6、4测试hdfs是否正常

hadoop fs -ls /

 

hadoop fs -mkdir  /home 创建home文件夹

 

hadoop fs -put /hadoop/hadoop-2.2.0/LICENSE.txt  /home/hadoop/  上传文件

 

注:

1、最好别用./start-all.sh或者start-yarn.sh启动。需要一个一个启动。

2.、14/04/27 04:32:23 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

这个错误是服务器包和hadoop的lib包不一致。不影响运行。重编译就会正常

 

 *********************集群版本

1、添加2台虚拟机做为datanode节点

2、将单机版本的hadoop目录分别传到新加的机器里。路径要一样

3、新加机器里配置/etc/hosts

4、3台机器都需要配置slaves,将datanode节点机器名字写到里面

5、生成SSH免密码登录认证。


echo"" > .ssh/authorized_keys
ssh-keygen
cat id_rsa.pub >>authorized_keys

 

将没台机器的authorized_keys文件都追加到里面。保证每台机器都有其它机器的信息

6、ssh进行测试是否正常

7、在namenode上启动

./start-dfs.sh

结果namenode的JPS进程如下:

2050 NameNode
2309 Jps
2207 SecondaryNameNode

datanode进程如下:

3817 DataNode
3905 Jps

8、启动YARN进程

./start-yarn.sh

结果namenode的JPS进程如下:

2050 NameNode
2416 ResourceManager
2207 SecondaryNameNode
2482 Jps

多了ResourceManager进程

datanode进程如下:

[hadoop@dn01 hadoop]$ jps
3971 Jps
3817 DataNode
3941 NodeManager

多了NodeManager进程

9、查看机器状态

./hdfs dfsadmin -report

Configured Capacity: 39187111936 (36.50 GB)
Present Capacity: 34221793280 (31.87 GB)
DFS Remaining: 34221744128 (31.87 GB)
DFS Used: 49152 (48 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0

-------------------------------------------------
Datanodes available: 2 (2 total, 0 dead)

Live datanodes:
Name: 192.168.153.153:50010 (dn03)
Hostname: dn03
Decommission Status : Normal
Configured Capacity: 19593555968 (18.25 GB)
DFS Used: 24576 (24 KB)
Non DFS Used: 2482696192 (2.31 GB)
DFS Remaining: 17110835200 (15.94 GB)
DFS Used%: 0.00%
DFS Remaining%: 87.33%
Last contact: Sun Apr 27 07:22:14 EDT 2014


Name: 192.168.153.151:50010 (dn01)
Hostname: dn01
Decommission Status : Normal
Configured Capacity: 19593555968 (18.25 GB)
DFS Used: 24576 (24 KB)
Non DFS Used: 2482622464 (2.31 GB)
DFS Remaining: 17110908928 (15.94 GB)
DFS Used%: 0.00%
DFS Remaining%: 87.33%
Last contact: Sun Apr 27 07:22:13 EDT 2014

10、执行./start-balancer.sh   让datanode均匀分配空间

 

11、进程测试。上传190M的文件

 hadoop fs -put hadoop-2.2.0.tar.gz /home/hadoop/

结果在datanode上发现占用自己的空间了。说明文件已经分布到datanode机器上了

12、登录管理界面查看是否正常
分享到:
评论
1 楼 andyniu 2014-05-03  
弄了接近2天。由于安装的虚拟机是建议版本的系统。很多包都没安装。导致出很多错误信息。最后还算好

相关推荐

    Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程

    Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程 按照文档中的操作步骤,一步步操作就可以完全实现hadoop2.2.0版本的完全分布式集群搭建过程

    Hadoop2.2.0集群安装

    ### Hadoop2.2.0集群安装:QJM实现HA及Hdfs-site配置详解 #### 一、Hadoop2.2.0完全分布式集群平台安装设置概述 在深入探讨Hadoop2.2.0的安装过程之前,我们需要了解Hadoop的基本架构以及其核心组件——HDFS...

    Hadoop2.2.0安装配置手册

    Hadoop2.2.0安装配置手册,新手安装和配置

    Hadoop 2.2.0 配置文件

    在CentOS 6.4上,我们需要安装Java开发套件(JDK),因为Hadoop是用Java编写的,并且依赖于Java环境。 1. **环境配置**: - `etc/hadoop/hadoop-env.sh`:这是Hadoop环境变量的配置文件,通常需要设置`JAVA_HOME`...

    hadoop2.2.0

    6. 优化与改进:Hadoop 2.2.0还包含了许多性能优化,如HDFS的延迟写入、更快的数据本地化、更高效的网络通信库(Netty替代旧的Java套接字)等,以及MapReduce的优化如压缩输出、动态分区等。 7. 兼容性与扩展性:...

    Hadoop2.2.0安装配置及实例教程入门宝典

    本教程将带你逐步走进Hadoop的世界,从零开始,教你如何在本地环境中安装配置Hadoop2.2.0版本,然后结合Eclipse开发环境,编写并运行Hadoop实例程序。 首先,了解Hadoop的基本概念是必要的。Hadoop是由Apache基金会...

    hadoop2.2.0安装指南.docx

    总结来说,安装Hadoop 2.2.0的关键步骤包括:下载软件包、配置集群环境、设置SSH无密码登录、安装JDK并配置环境变量、调整Hadoop配置文件,以及启动服务。遵循这些步骤,可以顺利地在多台机器上构建一个基本的Hadoop...

    CentOS6.5x64下安装19实体节点Hadoop2.2.0集群配置指南

    资源名称:CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南内容简介: CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南主要讲述的是CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南;...

    hadoop2.2.0-linux-64bit安装包和源码包

    根据提供的文件标题、描述、标签以及部分内容,我们可以推断出这份文档主要涉及Hadoop 2.2.0版本在Linux 64位系统上的安装包和源码包的相关信息。以下将详细介绍与这些关键词相关的重要知识点。 ### Hadoop 2.2.0 ...

    Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程.

    Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程.

    hadoop2.2.0的64位安装包

    总结来说,安装64位的Hadoop 2.2.0涉及下载源代码、配置编译环境、编译源代码、安装和配置Hadoop以及启动服务。这个过程对于理解和掌握Hadoop的工作原理非常有帮助,同时也能确保在64位Linux系统上顺利运行大数据...

    Hadoop 2.2.0 64位native文件(重编译)

    总结来说,Hadoop 2.2.0 64位native文件是为64位Linux系统定制的,包含了Hadoop运行所必需的本地库,涵盖了JNI接口、HDFS客户端、MapReduce组件、线程库、压缩库、加密库以及内存管理优化等多个方面。在遇到与native...

    Hadoop Eclipse插件2.2.0版本

    hadoop Eclipse插件Linux版本,编译环境hadoop2.2.0

    hadoop2.2.0/2.6.0/2.7.0/2.7.1 64位安装包

    hadoop2.2.0/2.6.0/2.7.0/2.7.1 64位安装包。

    Hadoop2.2.0环境测试详细傻瓜说明

    通过以上步骤,我们可以验证Hadoop2.2.0环境是否安装正确,以及MapReduce功能是否正常工作。这个简单的WordCount测试对于理解和熟悉Hadoop的基本操作非常有帮助,是初学者入门的必备步骤。如果你对Hadoop有足够了解...

    Hadoop2.2.0 分布式安装指导

    Hadoop 2.2.0 分布式安装指导

    安装Hadoop(单机版和集群)步骤

    【安装Hadoop(单机版和集群)步骤】 在IT领域,Hadoop是一个分布式计算框架,主要用于处理和存储海量数据。本教程将详细介绍如何在Ubuntu 12.10操作系统上安装Hadoop的单机版和集群版。首先,确保你已经在VMware...

Global site tag (gtag.js) - Google Analytics