`
wang吖
  • 浏览: 240685 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Hadoop2.2.0的伪分布式搭建(可下载PDF附件)

阅读更多

目录

1. 简介

2. 所需软件

3. 安装环境配置

4. 安装JDK

5. 安装Hadoop2.2.0

6. 启动Hadoop

7. 验证HDFS是否可用

8. 设置免密码登

 

1. 简介

本文主要是介绍Hadoop2.2.0的伪分布式的搭建,通过伪分布式的搭建来认识Hadoop2.2.0主要进程,最后实现一个WordCount的单词计数。

2. 所需软件

1) 准备虚拟机VMware Workstation、CentOS6.4

2) Hadoop2.2.0的安装包,该安装包可以直接去Apache的官网上下载hadoop-2.2.0.tar.gz

3) jdk-6u24-linux-i586.bin  安装包

3. 安装环境配置

注意:为了操作方便,以下软件安装及操作均使用root用户进行操作,实际的生产环境是不可以使用root用户的。

1) 修改虚拟机IP

[root@localhost Desktop]# vi  /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE="eth0"

BOOTPROTO="static"  ### 修改

HWADDR="00:50:56:2A:0E:A4"

IPV6INIT="yes"

NM_CONTROLLED="yes"

ONBOOT="yes"

TYPE="Ethernet"

UUID="2d678a8b-6c40-4ebc-8f4e-245ef6b7a969"

IPADDR="192.168.80.110" ### 修改

NETMASK="255.255.255.0"  ### 修改

GATEWAY="192.168.80.1"   ### 修改

 

 

2) 修改主机名

[root@localhost Desktop]# vi /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=hd01   ### 修改hd01可以自定义但是要和3)步骤中的映射保持一致

3) 修改主机名与IP的映射关系

[root@localhost Desktop]# vi /etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4

::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.80.110  hd01  ## 添加ip与主机名的映射中间用空格或者tab键分割均可

 

4) 查看防火墙状态

 

5) 如果防火墙开启则关闭防火墙

[root@localhost Desktop]# service iptables stop

6) 设置防火墙开机不启动

[root@localhost Desktop]# chkconfig iptables off

7) 查看防火墙的状态(如果全是off则为开机不启动防火墙)

[root@localhost Desktop]# chkconfig iptables --list

iptables       0:off 1:off 2:off 3:off 4:off 5:off 6:off

 

8) 重启机器

[root@localhost Desktop]# reboot

9) 验证ip及主机名是否修改完成

Windows 下面使用ping 192.168.80.110 是否能ping通虚拟机

反过来用虚拟机ping 一下Windows的IP

10) 在Linux的根目录下面创建一个cloud目录,使用ftp工具上传jdk及hadoop安装包到该目录

至此安装环境准备完毕!!!

4. 安装JDK

使用root用户进入cloud目录

1) 安装jdk执行命令:

./jdk-6u24-linux-i586.bin

如果./jdk-6u24-linux-i586.bin无权限则授予可执行权限:chmod u+x ./jdk-6u24-linux-i586.bin

2) 配置jdk的环境变量

[root@hd01 ~]# vi /etc/profile

#### 在该文件下添加如下配置

export JAVA_HOME=/cloud/jdk1.6.0_24

export PATH=$PATH:$JAVA_HOME/bin

3) 刷新配置文件

[root@hd01 ~]# source /etc/profile

 

4) 验证安装jdk成功

[root@hd01 ~]# java -version

 

5. 安装Hadoop2.2.0

使用root用户进入cloud目录

1) 解压hadoop-2.2.0的压缩包

tar -zxvf hadoop-2.2.0.tar.gz

2) 配置Hadoop2.2.0的伪分布式,需要修改路径:/cloud/hadoop-2.2.0/etc/hadoop 下面的 5个配置文件

第一个:hadoop-env.sh  (修改第27行)

vi hadoop-env.sh

export JAVA_HOME=/usr/java/jdk1.7.0_60

 

第二个:core-site.xml

vi core-site.xml

<configuration>

<!-- 用来指定HDFS的老大(NameNode)的地址 -->

<property>

<name>fs.defaultFS</name>

<value>hdfs://hd01:9000</value>

</property>

<!-- 用来指定Hadoop用行时产生文件的存放目录 -->

<property>

<name>hadoop.tmp.dir</name>

<value>/cloud/hadoop-2.2.0/tmp</value>

</property>

</configuration>

 

第三个:hdfs-site.xml

<configuration>

<!-- 指定HDFS保存数据副本的数量 -->

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

 

第四个:mapred-site.xml (首先改名:mv mapred-site.xml.template mapred-site.xml)

                然后修改mapred-site.xml

<configuration>

<!-- 告诉Hadoop以后MR运行在YARN上 -->

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

 

第五个:yarn-site.xml

<configuration>

<!-- NodeManager获取数据的方式是shuffle -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<!-- 指定YARN的老大(ResourceManager)的地址 -->

<property>

<name>yarn.resourcemanager.hostname</name>            

<value>hd01</value>

</property>

</configuration>

 

3) 将Hadoop添加到环境变量中

vi /etc/profile

export HADOOP_HOME=/cloud/hadoop-2.2.0

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin  

4) 刷新配置:

  source /etc/profile

5) 验证Hadoop是否安装成功:

[root@hd01 hadoop]# hadoop version

 

6. 启动Hadoop

1) 格式化hadoop

[root@hd01 cloud]# hdfs namenode –format

 

2) 启动HDFS和YARN (需要多次输入root用户密码)

[root@hd01 sbin]# ./start-all.sh

3) 启动完成验证进程是否启动成功(可以看到如下5个进程则启动成功)

[root@hd01 sbin]# jps

 

4) 使用浏览器验证:

HDFD的管理界面:  http://hd01:50070/dfshealth.jsp

 

YARN的管理界面:http://hd01:8088/cluster

 

7. 验证HDFS是否可用

1) 将/root/install.log上传到HDFS的根目录下面

[root@hd01 sbin]# hadoop fs -put /root/install.log hdfs://hd01:9000/

2) 通过浏览器查看是否上传成功

  成功!!! 

3) 运行Hadoop2.2.0安装包提供的wordcount对hdfs://hd01:9000/install.log进行单词计数

[root@hd01 mapreduce]# hadoop jar /cloud/hadoop-2.2.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar wordcount hdfs://hd01:9000/install.log /out

 

4) 验证输出结果

 

  

至此Hadoop2.2.0的伪分布式搭建完成!!!

8. 设置免密码登录

1) 进入/root/.ssh 

[root@hd01 ~]# cd  ~/.ssh

2) 在~/.ssh中执行命令ssh-keygen -t rsa (一路回车下去):

[root@hd01 .ssh]# ssh-keygen -t rsa

 

3) 然后执行以下命令(输入一次密码):

[root@hd01 .ssh]# ssh-copy-id hd01

 

4) 此时在~/.ssh中将生成公私玥信息

[root@hd01 sbin]# cd ~/.ssh

[root@hd01 .ssh]# ll

 

 

5) 再次启动Hadoop将无需输入密码

 

分享到:
评论

相关推荐

    hadoop2.2.0伪分布式搭建

    此伪分布式搭建文件绝对正确,LZ亲自试验过。另,本文件为传智播客中使用文件,请勿用于商业用途,否则后果自负。

    Hadoop2.0.0伪分布式搭建

    最近自学hadoop2.0.0伪分布式搭建,都是一边学一边记录的 个人认为只要是稍微熟悉linux的都能看懂并搭建成功 分有点高,考虑好在下载

    hadoop2.4.1伪分布式搭建

    hadoop2.4.1伪分布式搭建

    hadoop伪分布式搭建(超级详细)

    我们将基于提供的hadoop-2.2.0版本进行操作,并参考名为“hadoop2.2.0伪分布式搭建.txt”的指南文件。 首先,我们需要安装Java开发工具包(JDK),因为Hadoop是用Java编写的,依赖于JDK运行。确保你的系统已经安装...

    Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程

    Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程 按照文档中的操作步骤,一步步操作就可以完全实现hadoop2.2.0版本的完全分布式集群搭建过程

    VMware上CentOS7.0+Hadoop3.1伪分布式搭建

    在本教程中,我们将深入探讨如何在VMware虚拟机中安装...通过这个过程,你将不仅学会如何在VMware上的CentOS7搭建Hadoop伪分布式环境,还能深入理解Hadoop的组件和工作原理,为进一步的大数据学习打下坚实的基础。

    hadoop2.6.5伪分布式搭建

    【Hadoop 伪分布式搭建详解】 在搭建 Hadoop 2.6.5 伪分布式环境时,我们需要经历一系列步骤,确保所有必要的组件正确配置。以下是一个详细的指南: 1. **安装基础工具**: - `ssh`:用于远程登录和无密码登录。 ...

    hadoop2.2伪分布式集群搭建

    hadoop2.2伪分布式集群搭建 #查看防火墙状态 service iptables status #关闭防火墙 service iptables stop #查看防火墙开机启动状态 chkconfig iptables --list #关闭防火墙开机启动 chkconfig iptables off

    2、大数据环境-安装Hadoop2.5.2伪分布式傻瓜教程

    2、大数据环境-安装Hadoop2.5.2伪分布式傻瓜教程 原创

    hadoop伪分布式搭建.doc

    《Hadoop伪分布式环境搭建详解》 Hadoop作为大数据处理的核心框架,其分布式环境的搭建是初学者必须掌握的关键技能之一。本篇文章将详细解析Hadoop伪分布式集群环境的搭建步骤,以及在搭建过程中可能遇到的问题及其...

    hadoop伪分布式安装.pdf

    在开始配置Hadoop伪分布式之前,需要确保已经完成了基本的环境搭建工作。主要包括: 1. **系统环境准备**:一般情况下,推荐使用Linux操作系统,因为它提供了良好的稳定性和性能。 2. **JDK安装**:Hadoop基于Java...

    Linix下Hadoop的伪分布式配置

    在Linux环境下配置Hadoop的伪分布式模式是学习和测试Hadoop功能的重要步骤。这个模式允许你在单个节点上运行Hadoop,模拟多节点集群的行为,无需物理扩展硬件资源。以下是对配置过程的详细解释: 首先,你需要确保...

    操作手册-hadoop集群伪分布式搭建v1.12.0.md

    操作手册-hadoop集群伪分布式搭建v1.12.0.md

    Centos 6.4下搭建Hadoop 2.2.0完全分布式集群

    本文档堪称最齐全的Hadoop-2.2.0搭建手册,不管是对于生手,还是对于想自己动手搭建的生手来说,都是非常有用的;因为自己是生手,看网上好多步骤,但还是有不懂的地方,所以自己整理下来了齐全的生手版,希望对一切...

Global site tag (gtag.js) - Google Analytics