`
cloudtech
  • 浏览: 4721358 次
  • 性别: Icon_minigender_1
  • 来自: 武汉
文章分类
社区版块
存档分类
最新评论

单节点Hadoop安装过程

 
阅读更多

1.1.1 环境准备

本次由一台centos虚拟服务器搭建hadoop平台,机器信息如表1所示:

表1 主机环境准备

名称

信息

IP

10.1.1.20

hostname

Master.hadoop

为方便使用,现给出主机环境方面需要修改的地方:

● IP地址修改

IP地址位于/etc/sysconfig/network-scripts/目录中,通过vi编辑ifcfg-eth0文件修改成如下所示结构即可:

[root@master network-scripts]# cd /etc/sysconfig/network-scripts/

[root@master network-scripts]# cat ifcfg-eth0

DEVICE="eth0"

ONBOOT=yes

TYPE=Ethernet

BOOTPROTO=none

IPADDR=10.1.1.20

PREFIX=24

GATEWAY=10.1.1.1

DEFROUTE=yes

HWADDR=00:30:16:AF:00:D1

● hostname修改

Hostname修改位于/etc/sysconfig/network文件中,其修改后的结果如下所示:

[root@master network-scripts]# cat /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=master.hadoop

● DNS修改

DNS位于/etc/hosts文件中,修改的结果如下所示:

[root@master network-scripts]# cat /etc/hosts

10.1.1.20master.hadoop master

127.0.0.1 localhost.localdomain localhost

● 环境测试

通过ping测试master.hadoop是否畅通:

[root@master network-scripts]# ping master.hadoop

PING master.hadoop (10.1.1.20) 56(84) bytes of data.

64 bytes from master.hadoop (10.1.1.20): icmp_seq=1 ttl=64 time=0.040 ms

64 bytes from master.hadoop (10.1.1.20): icmp_seq=2 ttl=64 time=0.016 ms

--- master.hadoop ping statistics ---

2 packets transmitted, 2 received, 0% packet loss, time 1467ms

rtt min/avg/max/mdev = 0.016/0.028/0.040/0.012 ms

1.1.2Java安装与部署

Hadoop需要java环境支持,通常需要java 1.6版本以上,因此可以通过去java官方网站下载JDK环境,下载地址为:

http://www.oracle.com/technetwork/java/javase/downloads/jdk-6u25-download-346242.html

从本链接中选择jdk-6u25-linux-x64-rpm.bin,在接受协议后方可下载到本地;

  ● Java安装

将下载到后java文件传至master.hadoop主机/home目录中,下面可以进行对其进行安装:

[root@master home]# chmod u+x jdk-6u25-linux-x64-rpm.bin

[root@master home]# ./jdk-6u25-linux-x64-rpm.bin

● Java配置

  Java安装完毕后,可以对java目录信息进行环境变量配置,配置信息需增加至文件/etc/profile之中,具体如下所示:

[root@master home]#vi /etc/profile

JAVA_HOME=/usr/java/jdk1.6.0_25

CLASSPATH=.:$JAVA_HOME/lib

PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin

 

环境变量配置完毕后,通过命令进行检验并生效: 

[root@master jdk1.6.0_25]# source /etc/profile

1.1.3 SSH配置

通过配置SSH实现基于公钥方式无密码登录,具体操作步骤为:创建一个新的hadoop帐户、生成这个帐户的SSH公钥、配置公钥授权文件、设置SSH服务登录方式等,下面给出具体方式:

● 创建hadoop帐户

[root@master jdk1.6.0_25]# useradd hadoop #创建帐号

[root@master jdk1.6.0_25]# passwd hadoop #配置密码

● 生成公钥

[hadoop@master ~]$ ssh-keygen    #生成SSH认证公钥,连续回车即可

Generating public/private rsa key pair.

Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):

Enter passphrase (empty for no passphrase):

Enter same passphrase again:

Your identification has been saved in /home/hadoop/.ssh/id_rsa.

Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.

The key fingerprint is:

86:b5:d9:6a:ea:03:4e:5a:97:e5:24:5b:1f:65:41:89 hadoop@master.hadoop

The key's randomart image is:

+--[ RSA 2048]----+

| ooo |

| E + |

| . o |

| .o++. |

| .OS... |

| + +.... |

| = o o |

| . . .o |

| .o. |

+-----------------+

[hadoop@master ~]$ cd .ssh/

[hadoop@master .ssh]$ ls

id_rsa id_rsa.pub

● 配置授权

[hadoop@master ~]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

[hadoop@master ~]$ chmod 700 ~/.ssh

[hadoop@master ~]$ chmod 600 ~/.ssh/authorized_keys

测试

[hadoop@master jdk1.6.0_25]$ ssh master.hadoop

Last login: Wed Jun 13 18:29:29 2012 from master.hadoop

1.1.4 Hadoop安装与配置

使用的Hadoop版本是hadoop-0.20.2.tar.gz,下载地址为:

http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-0.20.2/hadoop-0.20.2.tar.gz

  ● Hadoop安装

[root@master home]# tar xzvf hadoop-0.20.2.tar.gz

[root@master home]# mv hadoop-0.20.2 /usr/local

[root@master home]# cd /usr/local

[root@master local]# ls

bin etc games hadoop-0.20.2 include lib lib64 libexec sbin share src

[root@master local]# mv hadoop-0.20.2/ hadoop

[root@master local]# ls

bin etc games hadoop include lib lib64 libexec sbin share src

[root@master local]# chown -R hadoop:hadoop /usr/local/hadoop/ #修改权限

● 环境变量配置

跟配置JAVA一样配置hadoop环境变量,编辑文件/etc/profile,同时也要修改hadoop内部环境变量/hadoop/conf/hadoop_env.sh,具体细节如下所示:

[root@master local]# vi /etc/profile

HADOOP_HOME=/usr/local/hadoop

HADOOP_CONF_DIR=$HADOOP_HOME/conf

CLASSPAH=.:$JAVA_HOME/lib:$HADOOP_HOME/lib

PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$HADOOP_HOME/bin

"/etc/profile" 73L, 1660C written

[root@master local]# source /etc/profile

[root@master conf]# vi hadoop-env.sh

export JAVA_HOME=$JAVA_HOME
export HADOOP_CLASSPATH="$HADOOP_CLASSPATH"
export HADOOP_HEAPSIZE=2048
export HADOOP_LOG_DIR=/var/local/logs
export HADOOP_PID_DIR=/var/local/pids

[root@master bin]# export JAVA_HOME

[root@master bin]# export HADOOP_HOME

[root@master bin]# export HADOOP_CONF_DIR

● hadoop文件配置

配置三个xml文件,分别为:core-site.xml、hdfs-site.xml、mapred-site.xml,配置效果如下所示:

文件:core-site.xml

[root@master conf]# vi core-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

文件:hdfs-site.xml

[root@master conf]# vi hdfs-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

文件:mapred-site.xml

[root@master conf]# vi mapred-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

</configuration>

● hadoop格式化文件系统

 切换到bin目录,找到可执行文件hadoop,执行文件系统格式化操作:

[root@master bin]# hadoop namenode -format

● 启动hadoop

[root@master bin]# ./start-all.sh

starting namenode, logging to /var/local/logs/hadoop-root-namenode-master.hadoop.out

localhost: starting datanode, logging to /var/local/logs/hadoop-root-datanode-master.hadoop.out

localhost: starting secondarynamenode, logging to /var/local/logs/hadoop-root-secondarynamenode-master.hadoop.out

starting jobtracker, logging to /var/local/logs/hadoop-root-jobtracker-master.hadoop.out

localhost: starting tasktracker, logging to /var/local/logs/hadoop-root-tasktracker-master.hadoop.out

1.1.5Hadoop测试

[root@master hadoop]# jps

2459 JobTracker

2284 DataNode

2204 NameNode

2860 Jps

2382 SecondaryNameNode

2575 TaskTracker

分享到:
评论

相关推荐

    单节点hadoop-0.20.2

    本资源"单节点hadoop-0.20.2"是一个针对初学者或快速测试环境的配置,它简化了Hadoop的安装和设置过程。这个压缩包包含了一个预配置的Hadoop环境,使得用户无需从头开始配置XML文件,只需解压即可运行,大大降低了...

    单节点Hadoop配置.doc

    单节点Hadoop配置 在本教程中,我们将详细介绍如何在Ubuntu Linux上设置一个单节点Hadoop集群,使用Hadoop分布式文件系统(HDFS)。如果你正在寻找多节点集群的教程,请参阅其他相关资源。Hadoop是一个用Java编写的...

    hadoop单节点配置

    在单节点模式下,可以运行一些示例程序,以便于学习和测试 Hadoop。可以使用以下命令运行示例程序: $ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+' 通过以上步骤,可以成功地配置和运行...

    ubuntu搭建hadoop单节点.docx

    7. 在 Ubuntu 操作系统上搭建 Hadoop 单节点需要完成环境准备、软件安装和配置过程。 8. 配置 SSH 免密钥登录可以确保可以无需密码登录。 9. 修改配置文件,包括 core-site.xml 和其他文件,是搭建 Hadoop 单节点的...

    HADOOP安装过程

    ### Hadoop安装过程详解 #### 一、概述 Hadoop是一种能够处理大量数据的大规模分布式存储与计算框架,常用于构建大数据分析平台。本文档基于一位用户的实践经历,详细介绍了如何在虚拟机环境下安装和配置Hadoop的...

    Hadoop课程实验和报告——Hadoop安装实验报告

    需要注意的是,Hadoop支持三种运行模式:单机单节点模式、单机多节点的伪分布模式和多机多节点分布模式。 二、Hadoop和Eclipse的结合 Hadoop可以与Eclipse集成,以便于项目的开发和调试。首先,需要下载Eclipse,...

    最详尽的Hadoop安装过程

    ### Hadoop安装与配置详解 #### 一、前言 Hadoop是一款开源软件框架,用于分布式存储和处理大型数据集。本文将详细介绍如何在CentOS 5.5环境下搭建一个包含1个NameNode节点和2个DataNode节点的Hadoop集群,并通过一...

    Hadoop单节点部署指导

    ### Hadoop单节点部署指导知识点详解 #### 一、实验目的 - **理解Hadoop原理机制**:深入了解Hadoop的工作原理及其背后的技术架构。 - **熟悉Hadoop集群体系结构**:掌握Hadoop集群中各组成部分的功能及其交互方式...

    利用ansible 自动 安装Hadoop 集群

    1. **环境准备**:在安装Hadoop集群之前,你需要有一组服务器作为集群节点,以及一台运行Ansible的控制节点。确保所有节点之间可以互相通信,并在控制节点上安装Ansible。 2. **Ansible配置**:创建一个名为`hadoop...

    hadoop完全安装手册

    2. **SSH免密登录设置**:为了方便管理和维护集群,需要在主节点hadoop01上实现到其他节点(hadoop02、hadoop03)的SSH免密登录。 3. **Hadoop集群安装**:完成上述准备后,即可在各个节点上安装并配置Hadoop。 ###...

    Hadoop安装和配置

    ### Hadoop安装与配置详解 #### 一、概述 Hadoop是一个开源软件框架,用于分布式存储和...通过这样的配置过程,我们可以更好地理解Hadoop集群的基本组成和工作原理,为进一步进行大数据处理和分析打下坚实的基础。

    hadoop单节点安装.pdf

    在本文中,我们将深入探讨如何在Ubuntu 12.04 64位服务器上安装和配置Hadoop 2.2.0单节点环境。这个过程由雨水在2013年10月24日记录并发布在CSDN博客上。以下是详细的步骤: 首先,确保你的环境准备就绪。这包括在...

    Hadoop 2.x单节点部署学习。

    在部署Hadoop 2.x单节点环境时,你需要先下载并安装Hadoop二进制包,然后根据你的硬件和需求调整上述配置文件。完成配置后,启动Hadoop守护进程,包括NameNode、DataNode、ResourceManager和NodeManager。最后,你...

    hadoop单节点安装.docx

    本文将详细介绍在Ubuntu 12.04 64位服务器上安装Hadoop 2.2.0的单节点配置过程。 **一、环境准备** 在开始安装之前,你需要在Windows下的VMware Player 4.0.3中安装Ubuntu 12.04 64位服务器版。确保已经安装了...

    多节点Hadoop配置.doc

    本教程的主要目标是实现更复杂一些的Hadoop安装,即构建一个由两台Ubuntu服务器组成的多节点集群。 **配置步骤:** 1. **网络设置**:确保所有节点之间的网络连接正常,可以互相访问。配置正确的主机名和IP地址,...

    linux下载,安装,JDK配置,hadoop安装

    ### Linux下载、安装、JDK配置、Hadoop安装相关知识点 #### 一、Linux环境准备与安装 **1.1 Linux版本选择** - **CentOS 6.5**:适用于本教程,是一款稳定且广受支持的企业级操作系统。 **1.2 下载Linux** - **...

Global site tag (gtag.js) - Google Analytics