hadoop 多节点安装
建立一个4台服务器的hadoop集群,4台服务器ip和对应的主机名分别为:
192.168.40.240:dm1
192.168.10.147:dm2
192.168.40.242:dm3
192.168.40.239:dm4
其中dm1为namenode,另外3台为datanode。
版本:
hadoop-0.20.203.0
准备:
一、安装JAVA
下载:jdk-6u27-linux-i586.bin
分别在4台机器下安装:
1、在usr下面新建一个文件夹Java,然后将jdk复制过来
sudo mkdir /usr/Java
sudo cp jdk的路径 /usr/Java
2、进入到Java目录下,改变文件权限为可执行
cd /usr/Java
sudo chmod u+x jdk1.6.0_23.bin
3、执行安装
sudo ./jdk1.6.0_23.bin
(现象为Unpacking....加一连串解压信息)
4、配置环境变量
vim /etc/profile
增加内容
export JAVA_HOME=/usr/java/jdk1.6.0_27
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
5、验证需要重新登陆
java -version
java version "1.6.0_27"
Java(TM) SE Runtime Environment (build 1.6.0_27-b07)
Java HotSpot(TM) Client VM (build 20.2-b06, mixed mode, sharing)
二、
创建一个名为hadoop的用户和用户组
分别在4台机器下面操作:
1、创建一个名为hadoop的用户组
addgroup hadoop
2、创建一个名为hadoop的用户,归到hadoop用户组下
adduser --ingroup hadoop hadoop
3、修改sudo文件
vim /etc/sudoers
在 root ALL=(ALL) ALL 下面添加
hadoop ALL=(ALL) ALL
目的:让
hadoop用户可使用sudo命令
4、配置dm1 namenode 的/etc/hosts增加
192.168.40.240 dm1
192.168.10.147 dm2
192.168.40.242 dm3
192.168.40.239 dm4
5、其他机器的/etc/hosts同样增加(有文档说只要slave识别master即可。不管了,都配)
192.168.40.240 dm1
192.168.10.147 dm2
192.168.40.242 dm3
192.168.40.239 dm4
三,安装hadoop
1、在DM1 namenode上安装hadoop,配置完配置文件后直接把目录COPY到其他3台就OK,
将下载的压缩包解压到安装目录下即可,把hadoop
的安装路径添加到环境变量/etc/profile 中
export
HADOOP_HOME=/usr/hadoop/hadoop-0.20.203.0
export
PATH=$HADOOP_HOME/bin:$PATH
2、编辑3个重要的配置文件:
root@dm1:/usr/hadoop/hadoop-0.20.203.0/conf# cat
core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>
hdfs://192.168.40.240:9000
</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>
/home/hadoop/tmp/hadoop-${user.name}
</value>
</property>
</configuration>
root@dm1:/usr/hadoop/hadoop-0.20.203.0/conf# cat hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/name </value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/data </value>
</property>
<property>
<name>dfs.replication</name>
<value>2
</value>
</property>
</configuration>
root@dm1:/usr/hadoop/hadoop-0.20.203.0/conf# cat mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>192.168.40.240:9001
</value>
</property>
</configuration>
3、配置namenode的conf/masters 和conf/slaves 文件
masters:
dm1
slaves:
dm2
dm3
dm4
至此,hadoop的配置已经完成
,COPY到其他机器即可
4、将在namenode机器上配置好的hadoop部署到datanode机器上
scp -r /usr/hadoop/hadoop-0.20.203.0/
root@dm2:/usr/hadoop/
scp -r /usr/hadoop/hadoop-0.20.203.0/ root@dm3:/usr/hadoop/
scp -r /usr/hadoop/hadoop-0.20.203.0/ root@dm4:/usr/hadoop/
四、启动hadoop
1、回到DM1格式化和启动(后面的操作都在OS 的hadoop用户下):
hadoop@dm1:/usr/hadoop/hadoop-0.20.203.0$ bin/hadoop namenode -format
hadoop@dm1:/usr/hadoop/hadoop-0.20.203.0$ bin/start-all.sh
2、dm1检查启动进程:
hadoop@dm1:/usr/hadoop/hadoop-0.20.203.0$ jps
5944 Jps
5477 NameNode
5744 JobTracker
5665 SecondaryNameNode
其他机器:
hadoop@dm2:~$ jps
4986 DataNode
5125 TaskTracker
5203 Jps
注意事项:
/etc/hosts 不要使用127.0.1.1或localhost
启动和维护在hadoop用户下
用ssh-keygen打通四台机器的无密登录.
参考
http://hadoop.apache.org/common/docs/r0.19.2/cn/cluster_setup.html
http://vampire1126.iteye.com/blog/891693
http://hi.baidu.com/jadmin/blog/item/80a590eceaac693c63d09f31.html
http://shirley-ren.iteye.com/blog/1174622
分享到:
相关推荐
7. 在 Ubuntu 操作系统上搭建 Hadoop 单节点需要完成环境准备、软件安装和配置过程。 8. 配置 SSH 免密钥登录可以确保可以无需密码登录。 9. 修改配置文件,包括 core-site.xml 和其他文件,是搭建 Hadoop 单节点的...
4. 分布式模式安装:使用多个节点构成集群环境来运行 Hadoop。 5. 安装 SSH 服务器:Ubuntu 默认已安装了 SSH 客户端,此外还需要安装 SSH 服务器,以便在单节点模式和分布式模式下使用 SSH 登录。 6. 配置 SSH 无...
本文将详细介绍如何搭建多节点 Hadoop 环境,包括安装 Ubuntu 操作系统、安装 Hadoop 软件、配置 SSH 无密码登录、配置 Hadoop 集群等步骤。 一、安装 Ubuntu 操作系统 在开始搭建 Hadoop 环境之前,需要安装 ...
在单节点模式下,Hadoop 默认情况下运行于 Local Mode,作为一个单一的 JAVA 进程,多用于调试。 配置文件 在单节点模式下,需要配置以下三个配置文件: 1. conf/core-site.xml:用于配置 Hadoop 的核心设置。 2....
### 基于Ubuntu的Hadoop简易集群安装与配置知识点详解 #### 一、绪论 ##### 1.1 研究背景及意义 在当前信息化社会中,随着科技的发展与进步,尤其是互联网技术的普及,我们正处在一个数据爆炸的时代。各行各业都在...
- **操作系统选择**:Ubuntu,一种广泛使用的Linux发行版,易于安装和配置Hadoop环境。 - **Hadoop版本选择**:根据实验需求选择合适的Hadoop版本,通常推荐使用最新稳定版以获得最佳性能和支持。 #### 四、Hadoop...
本文将详细介绍在Ubuntu 12.04 64位服务器上安装Hadoop 2.2.0的单节点配置过程。 **一、环境准备** 在开始安装之前,你需要在Windows下的VMware Player 4.0.3中安装Ubuntu 12.04 64位服务器版。确保已经安装了...
在本文中,我们将深入探讨如何在Ubuntu 12.04 64位服务器上安装和配置Hadoop 2.2.0单节点环境。这个过程由雨水在2013年10月24日记录并发布在CSDN博客上。以下是详细的步骤: 首先,确保你的环境准备就绪。这包括在...
2. **安装Ubuntu 16.04**:在VMware中安装一个Ubuntu 16.04操作系统,这将成为集群的主节点(master node)。 3. **安装并配置JDK 1.8**:由于兼容性和后续其他程序配置的需求,JDK版本建议至少为1.8。 #### 三、...
在本文中,我们将详细探讨如何在Ubuntu 10.10 (Maverick Meerkat)上通过VMware虚拟机安装并配置Hadoop集群。这个过程涵盖了从搭建虚拟环境到安装必要的软件,以及最终配置Hadoop分布式文件系统(HDFS)和MapReduce服务...
【Hadoop 单节点伪分布式搭建】是一种适合学习和测试Hadoop环境的简易方式,无需配置复杂的多节点集群。在单节点伪分布式模式下,所有Hadoop服务都在同一个节点上以独立Java进程的方式运行,模拟分布式环境的行为,...
linux入门级资源,对需要配置环境变量的初学者有一定作用,不喜勿喷。谢谢
我们可以下载Hadoop的安装包,并将其安装到Ubuntu虚拟机中。然后,我们需要配置Hadoop的环境变量,包括HADOOP_HOME、HADOOP_CONF_DIR等。 5. SSH的安装和配置:SSH(Secure Shell)是安全的远程登录协议。我们可以...
- 在Ubuntu中安装JDK、Hadoop和SSH-server。 - 配置环境变量、Hadoop及SSH-key。 - 单机环境测试Hadoop。 - 克隆单机Hadoop环境的Ubuntu,建立局域网。 - 配置主节点和从节点的IP。 - 测试网络连通性。 - 在所有节点...
### 使用虚拟机在Ubuntu上搭建Hadoop平台单机模式 #### 概述 本文旨在详细介绍如何在虚拟机环境下,利用Ubuntu系统搭建Hadoop平台的单机模式。通过本教程,您可以掌握从安装虚拟机到配置Hadoop环境的全过程。本文...
在本安装文档中,我们将详细介绍如何在虚拟集群环境下部署一个包含1个Master节点和2个Slave节点的Hadoop集群。 **2.1 部署1个Master和2个Slave的集群** 在开始Hadoop的安装前,你需要准备三台虚拟机。这些虚拟机...
本文档详细介绍了如何在Ubuntu20.04操作系统上搭建Hadoop2.10.0集群,包括环境配置、软件安装、网络设置、集群启动等多个方面。 ##### 1. 服务器环境 集群包含三台服务器: - **us1**:`192.168.94.136` - **us2*...