引自:http://blog.sina.com.cn/s/blog_6524b4b50100lobs.html
1.基本准备
操作系统:redhat 5.2
jdk: jdk-6u21-linux-i586-rpm.bin(安装1.6或以上版本,安装步骤请参考其他文)
hadoop:hadoop-0.21.0.tar.gz
硬件:三台机器,IP配置如下:
node1:192.168.14.77
node2:192.168.14.155
node3:192.168.14.99
2.系统配置
(1)以root身份打开/etc/hosts文件
192.168.14.77 node1
192.168.14.155 node2
192.168.14.99 node3
注:node2,node3也需要同样设置
(2)每个节点都有相同的用户,例如:hadoop(账号默认的主目录为:/home/hadoop)
用有root权限的用户登录系统,执行:
[root@node1:~]$sudo visudo –f /etc/sudoers
在打开的文件中加入:
hadoop ALL=(ALL) ALL
注:方便hadoop用户访问和修改系统文件与配置
3.配置ssh(redhat本身默认安装)
(1)生成密钥:
[hadoop@node1:~]$ssh-keygen –t dsa
一路回车,会在/home/hadoop/.ssh文件中添加两个文件(id_dsa和id_dsa.pub)成对出现。
(2)复制:
[hadoop@node1 .ssh]$cp id_dsa.pub authorized_keys
(3)复制密钥到各节点,并赋权限:
以hadoop登录到其他DataNode上,并在各DataNode上建立文件.ssh:
[hadoop@node2:~]$mkdir /home/hadoop/.ssh
[hadoop@node3:~]$mkdir /home/hadoop/.ssh
以hadoop登录到NameNode:
权限配置完全如图。
把authorized_keys文件拷贝到各NameNode节点上,例如:
[hadoop@node1.ssh]$
scp authorized_keys hadoop@192.168.14.155:/home/hadoop/.ssh/
并在各节点设置权限,例如:
[hadoop@node2.ssh]$ chmod 644 authorized_keys
(4)对ssh服务进行配置,去除密码验证,在每个节点上对/etc/ssh/sshd_config文件进行修改,例如:
[hadoop@node2:~]$sudo vi /etc/ssh/sshd_config
在文件中进行如下修改:
去除#
PasswordAuthentication no
AuthorizedKeysFile .ssh/authorized_keys
重启sshd服务:
sudo /etc/init.d/ssh restart
测试ssh连接:
[hadoop@node1~]$ssh node2
4.jdk安装及配置
安装jdk
(1)查看本机jdk安装
$rpm –qa|grep gcj
本版不足1.6,卸载后重现安装
(2)卸载jdk
$rpm –qa|grep gcj
从下向上卸载:
[root@localhost ~]# rpm libgcj-4.1.2-42.el5
[root@localhost ~]# rpm java-1.4.2-gcj-compat-1.4.2.0-40jpp.115
(3)安装jdk
$chmod 755 jdk-6u21-linux-i586-rpm.bin
$./jdk-6u21-linux-i586-rpm.bin
$rpm –ivh jdk-6u21-linux-i586-rpm.bin
配置
(1)在/etc/profile中
(2)在hadoop-env.sh
注:具体在hadoop安装及配置中,每个节点的jdk安装路径最好一致。
5.hadoop安装及配置(以hadoop身份进行如下操作)
(1)安装:
mkdir /home/hadoop/hadoopinstall
cd /home/hadoop/hadoopinstall
[hadoop@node1 hadoopinstall]$ tar -zvxf hadoop-0.21.0.tar.gz
(2)配置:
环境变量:
/etc/profile文件下配置环境变量:
JAVA_HOME
HADOOP_HOME
CLASSPATH
PATH
/home/hadoop/hadoopinstall/hadoop-0.21.0/conf/hadoop-env.sh文件下配置环境变量:
JAVA_HOME
HADOOP_HOME
Hadoop配置文件修改
需修改/home/hadoop/hadoopinstall/hadoop-0.21.0/conf下的几个文件:
core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.14.77:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/hdfs/name</value>
<final>true</final>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/hdfs/data</value>
<final>true</final>
</property>
<property>
<name>fs.checkpoint.dir</name>
<value>/home/hadoop/hdfs/namesecondary</value>
<final>true</final>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.14.77:9000</value>
<final>true</final>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>192.168.14.77:9001</value>
</property>
<property>
<name>mapred.local.dir</name>
<value>/home/hadoop/mapred/local</value>
<final>true</final>
</property>
<property>
<name>mapred.system.dir</name>
<value>/tmp/hadoop/mapred/system</value>
<final>true</final>
</property>
<property>
<name>mapred.tasktracker.map.tasks.maximum</name>
<value>2</value>
<final>true</final>
</property>
<property>
<name>mapred.tasktracker.reduce.tasks.maximum</name>
<value>2</value>
<final>true</final>
</property>
<property>
<name>mapred.child.java.opts</name>
<value>-Xmx400m</value>
</property>
</configuration>
masters
192.168.14.77
slaves
192.168.14.155
192.168.14.99
注:以上为NameNode的配置,有关DateNode把NameNode的hadoopinstall整个文件复制到各节点的/home/hadoop下即可,以hadoop身份
6.基本操作
(1)主节点NameNode文件系统格式化为HDFS
[hadoop@node1 bin]$ cd /home/hadoop/hadoopinstall/hadoop-0.21.0/bin
[hadoop@node1 bin]$ hadoop namenode –format
(2)启动
[hadoop@node1 bin]$ start-all.sh
(3)停止
[hadoop@node1 bin]$ stop-all.sh
(4)创建一个目录
[hadoop@node1 bin]$ hadoop dfs –mkdir mytest
(5)查看根目录下有哪些文件和子目录
[hadoop@node1 bin]$ hadoop dfs -ls
相关推荐
Hadoop课程实验和报告——Hadoop安装实验报告 Hadoop是一个开源的大数据处理框架,由Apache基金会开发和维护。它提供了一种可靠、可扩展、可高效的方法来存储和处理大规模数据。在本实验报告中,我们将介绍Hadoop的...
### Hadoop安装教程:单机与伪分布式配置详解 #### 一、引言 Hadoop是一种开源的大数据处理框架,广泛应用于数据存储和处理场景。本文档将详细介绍如何在Ubuntu 14.04环境下安装配置Hadoop 2.6.0版本,包括单机模式...
### Linux下载、安装、JDK配置、Hadoop安装相关知识点 #### 一、Linux环境准备与安装 **1.1 Linux版本选择** - **CentOS 6.5**:适用于本教程,是一款稳定且广受支持的企业级操作系统。 **1.2 下载Linux** - **...
《Hadoop安装部署详解》 Hadoop,作为Google文件系统(GFS)的开源实现,是分布式计算领域的重要工具,其强大的数据处理能力和高容错性吸引了众多开发者和企业的关注。本文将详细介绍如何在Linux环境下安装和部署...
Hadoop 安装 学习 入门教程 Hadoop家族系列文章,主要介绍Hadoop家族产品,常用的项目包括Hadoop, Hive, Pig, HBase, Sqoop, Mahout, Zookeeper, Avro, Ambari, Chukwa,新增加的项目包括,YARN, Hcatalog, Oozie, ...
Hadoop安装部署手册是针对初学者的全面指南,旨在帮助用户了解和实践Hadoop的安装与运行。Hadoop是一个开源的分布式计算框架,由Apache基金会开发,主要用于处理和存储大规模数据集。以下是详细的步骤和关键知识点:...
### Hadoop安装与配置详解 #### 一、概述 Hadoop是一个开源软件框架,用于分布式存储和处理大数据集。它能够高效地处理PB级别的数据,适用于海量数据的存储和计算场景。本文将详细介绍如何在多台虚拟机上安装和...
### Hadoop安装过程详解 #### 一、概述 Hadoop是一种能够处理大量数据的大规模分布式存储与计算框架,常用于构建大数据分析平台。本文档基于一位用户的实践经历,详细介绍了如何在虚拟机环境下安装和配置Hadoop的...
### Hadoop 安装详细指南 #### 一、概述 Hadoop是一款开源软件框架,用于分布式存储和处理大型数据集。本文档详细介绍了如何在CentOS 7环境下部署Hadoop 2.7.3的完全分布式环境。此教程适合希望在多台服务器之间...
### Hadoop安装与配置详解 #### 一、前言 Hadoop是一款开源软件框架,用于分布式存储和处理大型数据集。本文将详细介绍如何在CentOS 5.5环境下搭建一个包含1个NameNode节点和2个DataNode节点的Hadoop集群,并通过一...
Hadoop安装-保你一次成功
【Hadoop安装教程_伪分布式配置_CentOS6.4】 Hadoop是一个开源的分布式计算框架,由Apache基金会开发,主要用于处理和存储大规模数据。本教程针对的是在CentOS 6.4操作系统上安装Hadoop 2.6.0的伪分布式配置,这种...
三、Hadoop安装与部署 1. 环境准备:确保具备多台Linux服务器,安装Java环境,配置SSH无密码登录。 2. 下载Hadoop:从Apache官方网站获取最新稳定版本的Hadoop,解压到服务器。 3. 配置环境变量:在`~/.bashrc`或`~/...
Hadoop安装使用教程Hadoop安装使用教程Hadoop安装使用教程Hadoop安装使用教程Hadoop安装使用教程Hadoop安装使用教程Hadoop安装使用教程Hadoop安装使用教程Hadoop安装使用教程Hadoop安装使用教程Hadoop安装使用教程...
hadoop安装和配置,这份PPT讲诉了如何安装和配置Hadoop
《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践...
Hadoop安装教程_单机/伪分布式配置_Hadoop2.7.1/Ubuntu 16.04 本教程主要讲述了在 Ubuntu 16.04 环境下安装 Hadoop 2.7.1 的步骤,包括单机模式、伪分布式模式和分布式模式三种安装方式。以下是本教程的知识点总结...