1.1.1 环境准备
本次由一台centos虚拟服务器搭建hadoop平台,机器信息如表1所示:
表1 主机环境准备
名称
|
信息
|
IP
|
10.1.1.20
|
hostname
|
Master.hadoop
|
为方便使用,现给出主机环境方面需要修改的地方:
● IP地址修改
IP地址位于/etc/sysconfig/network-scripts/目录中,通过vi编辑ifcfg-eth0文件修改成如下所示结构即可:
[root@master network-scripts]# cd /etc/sysconfig/network-scripts/
[root@master network-scripts]# cat ifcfg-eth0
DEVICE="eth0"
ONBOOT=yes
TYPE=Ethernet
BOOTPROTO=none
IPADDR=10.1.1.20
PREFIX=24
GATEWAY=10.1.1.1
DEFROUTE=yes
HWADDR=00:30:16:AF:00:D1
|
● hostname修改
Hostname修改位于/etc/sysconfig/network文件中,其修改后的结果如下所示:
[root@master network-scripts]# cat /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=master.hadoop
|
● DNS修改
DNS位于/etc/hosts文件中,修改的结果如下所示:
[root@master network-scripts]# cat /etc/hosts
10.1.1.20master.hadoop master
127.0.0.1 localhost.localdomain localhost
|
● 环境测试
通过ping测试master.hadoop是否畅通:
[root@master network-scripts]#
ping master.hadoop
PING master.hadoop (10.1.1.20) 56(84) bytes of data.
64 bytes from master.hadoop (10.1.1.20): icmp_seq=1 ttl=64 time=0.040 ms
64 bytes from master.hadoop (10.1.1.20): icmp_seq=2 ttl=64 time=0.016 ms
--- master.hadoop ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1467ms
rtt min/avg/max/mdev = 0.016/0.028/0.040/0.012 ms
|
1.1.2Java安装与部署
Hadoop需要java环境支持,通常需要java 1.6版本以上,因此可以通过去java官方网站下载JDK环境,下载地址为:
http://www.oracle.com/technetwork/java/javase/downloads/jdk-6u25-download-346242.html
从本链接中选择jdk-6u25-linux-x64-rpm.bin,在接受协议后方可下载到本地;
● Java安装
将下载到后java文件传至master.hadoop主机/home目录中,下面可以进行对其进行安装:
[root@master home]# chmod u+x jdk-6u25-linux-x64-rpm.bin
[root@master home]# ./jdk-6u25-linux-x64-rpm.bin
|
● Java配置
Java安装完毕后,可以对java目录信息进行环境变量配置,配置信息需增加至文件/etc/profile之中,具体如下所示:
[root@master home]#vi /etc/profile
JAVA_HOME=/usr/java/jdk1.6.0_25
CLASSPATH=.:$JAVA_HOME/lib
PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin
|
环境变量配置完毕后,通过命令进行检验并生效:
[root@master jdk1.6.0_25]# source /etc/profile
|
1.1.3 SSH配置
通过配置SSH实现基于公钥方式无密码登录,具体操作步骤为:创建一个新的hadoop帐户、生成这个帐户的SSH公钥、配置公钥授权文件、设置SSH服务登录方式等,下面给出具体方式:
● 创建hadoop帐户
[root@master jdk1.6.0_25]# useradd hadoop #创建帐号
[root@master jdk1.6.0_25]# passwd hadoop #配置密码
|
● 生成公钥
[hadoop@master ~]$
ssh-keygen #生成SSH认证公钥,连续回车即可
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/hadoop/.ssh/id_rsa.
Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
The key fingerprint is:
86:b5:d9:6a:ea:03:4e:5a:97:e5:24:5b:1f:65:41:89 hadoop@master.hadoop
The key's randomart image is:
+--[ RSA 2048]----+
| ooo |
| E + |
| . o |
| .o++. |
| .OS... |
| + +.... |
| = o o |
| . . .o |
| .o. |
+-----------------+
[hadoop@master ~]$ cd .ssh/
[hadoop@master .ssh]$ ls
id_rsa id_rsa.pub
|
● 配置授权
[hadoop@master ~]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
[hadoop@master ~]$ chmod 700 ~/.ssh
[hadoop@master ~]$ chmod 600 ~/.ssh/authorized_keys
|
● 测试
[hadoop@master jdk1.6.0_25]$ ssh master.hadoop
Last login: Wed Jun 13 18:29:29 2012 from master.hadoop
|
1.1.4 Hadoop安装与配置
使用的Hadoop版本是hadoop-0.20.2.tar.gz,下载地址为:
http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-0.20.2/hadoop-0.20.2.tar.gz
● Hadoop安装
[root@master home]# tar xzvf hadoop-0.20.2.tar.gz
[root@master home]# mv hadoop-0.20.2 /usr/local
[root@master home]# cd /usr/local
[root@master local]# ls
bin etc games hadoop-0.20.2 include lib lib64 libexec sbin share src
[root@master local]# mv hadoop-0.20.2/ hadoop
[root@master local]# ls
bin etc games hadoop include lib lib64 libexec sbin share src
[root@master local]# chown -R hadoop:hadoop /usr/local/hadoop/ #修改权限
|
● 环境变量配置
跟配置JAVA一样配置hadoop环境变量,编辑文件/etc/profile,同时也要修改hadoop内部环境变量/hadoop/conf/hadoop_env.sh,具体细节如下所示:
[root@master local]# vi /etc/profile
HADOOP_HOME=/usr/local/hadoop
HADOOP_CONF_DIR=$HADOOP_HOME/conf
CLASSPAH=.:$JAVA_HOME/lib:$HADOOP_HOME/lib
PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$HADOOP_HOME/bin
"/etc/profile" 73L, 1660C written
[root@master local]# source /etc/profile
[root@master conf]# vi hadoop-env.sh
export JAVA_HOME=$JAVA_HOME
export HADOOP_CLASSPATH="$HADOOP_CLASSPATH"
export HADOOP_HEAPSIZE=2048
export HADOOP_LOG_DIR=/var/local/logs
export HADOOP_PID_DIR=/var/local/pids
[root@master bin]# export JAVA_HOME
[root@master bin]# export HADOOP_HOME
[root@master bin]# export HADOOP_CONF_DIR
|
● hadoop文件配置
配置三个xml文件,分别为:core-site.xml、hdfs-site.xml、mapred-site.xml,配置效果如下所示:
文件:core-site.xml
[root@master conf]# vi core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
|
文件:hdfs-site.xml
[root@master conf]# vi hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
|
文件:mapred-site.xml
[root@master conf]# vi mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
|
● hadoop格式化文件系统
切换到bin目录,找到可执行文件hadoop,执行文件系统格式化操作:
[root@master bin]# hadoop namenode -format
|
● 启动hadoop
[root@master bin]# ./start-all.sh
starting namenode, logging to /var/local/logs/hadoop-root-namenode-master.hadoop.out
localhost: starting datanode, logging to /var/local/logs/hadoop-root-datanode-master.hadoop.out
localhost: starting secondarynamenode, logging to /var/local/logs/hadoop-root-secondarynamenode-master.hadoop.out
starting jobtracker, logging to /var/local/logs/hadoop-root-jobtracker-master.hadoop.out
localhost: starting tasktracker, logging to /var/local/logs/hadoop-root-tasktracker-master.hadoop.out
|
1.1.5Hadoop测试
[root@master hadoop]# jps
2459 JobTracker
2284 DataNode
2204 NameNode
2860 Jps
2382 SecondaryNameNode
2575 TaskTracker
|
分享到:
相关推荐
本资源"单节点hadoop-0.20.2"是一个针对初学者或快速测试环境的配置,它简化了Hadoop的安装和设置过程。这个压缩包包含了一个预配置的Hadoop环境,使得用户无需从头开始配置XML文件,只需解压即可运行,大大降低了...
单节点Hadoop配置 在本教程中,我们将详细介绍如何在Ubuntu Linux上设置一个单节点Hadoop集群,使用Hadoop分布式文件系统(HDFS)。如果你正在寻找多节点集群的教程,请参阅其他相关资源。Hadoop是一个用Java编写的...
在单节点模式下,可以运行一些示例程序,以便于学习和测试 Hadoop。可以使用以下命令运行示例程序: $ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+' 通过以上步骤,可以成功地配置和运行...
7. 在 Ubuntu 操作系统上搭建 Hadoop 单节点需要完成环境准备、软件安装和配置过程。 8. 配置 SSH 免密钥登录可以确保可以无需密码登录。 9. 修改配置文件,包括 core-site.xml 和其他文件,是搭建 Hadoop 单节点的...
### Hadoop安装过程详解 #### 一、概述 Hadoop是一种能够处理大量数据的大规模分布式存储与计算框架,常用于构建大数据分析平台。本文档基于一位用户的实践经历,详细介绍了如何在虚拟机环境下安装和配置Hadoop的...
需要注意的是,Hadoop支持三种运行模式:单机单节点模式、单机多节点的伪分布模式和多机多节点分布模式。 二、Hadoop和Eclipse的结合 Hadoop可以与Eclipse集成,以便于项目的开发和调试。首先,需要下载Eclipse,...
### Hadoop安装与配置详解 #### 一、前言 Hadoop是一款开源软件框架,用于分布式存储和处理大型数据集。本文将详细介绍如何在CentOS 5.5环境下搭建一个包含1个NameNode节点和2个DataNode节点的Hadoop集群,并通过一...
### Hadoop单节点部署指导知识点详解 #### 一、实验目的 - **理解Hadoop原理机制**:深入了解Hadoop的工作原理及其背后的技术架构。 - **熟悉Hadoop集群体系结构**:掌握Hadoop集群中各组成部分的功能及其交互方式...
1. **环境准备**:在安装Hadoop集群之前,你需要有一组服务器作为集群节点,以及一台运行Ansible的控制节点。确保所有节点之间可以互相通信,并在控制节点上安装Ansible。 2. **Ansible配置**:创建一个名为`hadoop...
2. **SSH免密登录设置**:为了方便管理和维护集群,需要在主节点hadoop01上实现到其他节点(hadoop02、hadoop03)的SSH免密登录。 3. **Hadoop集群安装**:完成上述准备后,即可在各个节点上安装并配置Hadoop。 ###...
### Hadoop安装与配置详解 #### 一、概述 Hadoop是一个开源软件框架,用于分布式存储和...通过这样的配置过程,我们可以更好地理解Hadoop集群的基本组成和工作原理,为进一步进行大数据处理和分析打下坚实的基础。
在本文中,我们将深入探讨如何在Ubuntu 12.04 64位服务器上安装和配置Hadoop 2.2.0单节点环境。这个过程由雨水在2013年10月24日记录并发布在CSDN博客上。以下是详细的步骤: 首先,确保你的环境准备就绪。这包括在...
在部署Hadoop 2.x单节点环境时,你需要先下载并安装Hadoop二进制包,然后根据你的硬件和需求调整上述配置文件。完成配置后,启动Hadoop守护进程,包括NameNode、DataNode、ResourceManager和NodeManager。最后,你...
本文将详细介绍在Ubuntu 12.04 64位服务器上安装Hadoop 2.2.0的单节点配置过程。 **一、环境准备** 在开始安装之前,你需要在Windows下的VMware Player 4.0.3中安装Ubuntu 12.04 64位服务器版。确保已经安装了...
本教程的主要目标是实现更复杂一些的Hadoop安装,即构建一个由两台Ubuntu服务器组成的多节点集群。 **配置步骤:** 1. **网络设置**:确保所有节点之间的网络连接正常,可以互相访问。配置正确的主机名和IP地址,...
### Linux下载、安装、JDK配置、Hadoop安装相关知识点 #### 一、Linux环境准备与安装 **1.1 Linux版本选择** - **CentOS 6.5**:适用于本教程,是一款稳定且广受支持的企业级操作系统。 **1.2 下载Linux** - **...