`
han.zoo
  • 浏览: 26448 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
最近访客 更多访客>>
社区版块
存档分类
最新评论

hadoop 多节点安装 ubuntu 11

阅读更多


hadoop 多节点安装

建立一个4台服务器的hadoop集群,4台服务器ip和对应的主机名分别为:

192.168.40.240:dm1

192.168.10.147:dm2

192.168.40.242:dm3

192.168.40.239:dm4

其中dm1为namenode,另外3台为datanode。


版本: hadoop-0.20.203.0

准备:
一、安装JAVA
下载:jdk-6u27-linux-i586.bin

分别在4台机器下安装:

1、在usr下面新建一个文件夹Java,然后将jdk复制过来
sudo mkdir /usr/Java
sudo cp jdk的路径 /usr/Java

2、进入到Java目录下,改变文件权限为可执行
cd /usr/Java
sudo chmod u+x jdk1.6.0_23.bin

3、执行安装
sudo ./jdk1.6.0_23.bin
(现象为Unpacking....加一连串解压信息)

4、配置环境变量
vim /etc/profile
增加内容
export JAVA_HOME=/usr/java/jdk1.6.0_27
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar


5、验证需要重新登陆
java -version
java version "1.6.0_27"
Java(TM) SE Runtime Environment (build 1.6.0_27-b07)
Java HotSpot(TM) Client VM (build 20.2-b06, mixed mode, sharing)



二、 创建一个名为hadoop的用户和用户组
分别在4台机器下面操作:

1、创建一个名为hadoop的用户组
addgroup hadoop

2、创建一个名为hadoop的用户,归到hadoop用户组下
adduser --ingroup hadoop hadoop

3、修改sudo文件
vim /etc/sudoers

在 root   ALL=(ALL)  ALL 下面添加
hadoop  ALL=(ALL)  ALL

目的:让 hadoop用户可使用sudo命令

4、配置dm1  namenode 的/etc/hosts增加

192.168.40.240    dm1
192.168.10.147    dm2
192.168.40.242    dm3
192.168.40.239    dm4


5、其他机器的/etc/hosts同样增加(有文档说只要slave识别master即可。不管了,都配)
192.168.40.240    dm1
192.168.10.147    dm2
192.168.40.242    dm3
192.168.40.239    dm4

 

三,安装hadoop

1、在DM1  namenode上安装hadoop,配置完配置文件后直接把目录COPY到其他3台就OK,


将下载的压缩包解压到安装目录下即可,把hadoop 的安装路径添加到环境变量/etc/profile 中

export HADOOP_HOME=/usr/hadoop/hadoop-0.20.203.0
export PATH=$HADOOP_HOME/bin:$PATH

2、编辑3个重要的配置文件:

 

root@dm1:/usr/hadoop/hadoop-0.20.203.0/conf# cat core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->

<configuration>
    <property>
           <name>fs.default.name</name>
           <value>
hdfs://192.168.40.240:9000 </value> 
    </property>
       
    <property> 
           <name>hadoop.tmp.dir</name>
           <value>
/home/hadoop/tmp/hadoop-${user.name} </value> 
    </property>
</configuration>

 

 

root@dm1:/usr/hadoop/hadoop-0.20.203.0/conf# cat hdfs-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
        <property>
                <name>dfs.name.dir</name>
                <value>/home/hadoop/name </value>
        </property>
        <property>
                <name>dfs.data.dir</name>
                <value>/home/hadoop/data </value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>2 </value>
        </property>
</configuration>

 


root@dm1:/usr/hadoop/hadoop-0.20.203.0/conf# cat mapred-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
    <property> 
          <name>mapred.job.tracker</name> 
          <value>192.168.40.240:9001 </value>
     </property> 
</configuration>


3、配置namenode的conf/masters 和conf/slaves 文件
masters:

dm1


slaves:  

dm2
dm3
dm4


至此,hadoop的配置已经完成
,COPY到其他机器即可

4、将在namenode机器上配置好的hadoop部署到datanode机器上


scp -r /usr/hadoop/hadoop-0.20.203.0/ root@dm2:/usr/hadoop/
scp -r /usr/hadoop/hadoop-0.20.203.0/ root@dm3:/usr/hadoop/
scp -r /usr/hadoop/hadoop-0.20.203.0/ root@dm4:/usr/hadoop/


四、启动hadoop

1、回到DM1格式化和启动(后面的操作都在OS 的hadoop用户下):

hadoop@dm1:/usr/hadoop/hadoop-0.20.203.0$ bin/hadoop namenode -format 

hadoop@dm1:/usr/hadoop/hadoop-0.20.203.0$ bin/start-all.sh

 


2、dm1检查启动进程:

hadoop@dm1:/usr/hadoop/hadoop-0.20.203.0$ jps
5944 Jps
5477 NameNode
5744 JobTracker
5665 SecondaryNameNode


其他机器:
hadoop@dm2:~$ jps
4986 DataNode
5125 TaskTracker
5203 Jps



注意事项:

/etc/hosts 不要使用127.0.1.1或localhost

启动和维护在hadoop用户下


用ssh-keygen打通四台机器的无密登录.


参考

 

http://hadoop.apache.org/common/docs/r0.19.2/cn/cluster_setup.html
http://vampire1126.iteye.com/blog/891693
http://hi.baidu.com/jadmin/blog/item/80a590eceaac693c63d09f31.html
http://shirley-ren.iteye.com/blog/1174622

分享到:
评论

相关推荐

    ubuntu搭建hadoop单节点.docx

    7. 在 Ubuntu 操作系统上搭建 Hadoop 单节点需要完成环境准备、软件安装和配置过程。 8. 配置 SSH 免密钥登录可以确保可以无需密码登录。 9. 修改配置文件,包括 core-site.xml 和其他文件,是搭建 Hadoop 单节点的...

    Hadoop安装教程_单机/伪分布式配置_Hadoop2.7.1/Ubuntu 16.04

    4. 分布式模式安装:使用多个节点构成集群环境来运行 Hadoop。 5. 安装 SSH 服务器:Ubuntu 默认已安装了 SSH 客户端,此外还需要安装 SSH 服务器,以便在单节点模式和分布式模式下使用 SSH 登录。 6. 配置 SSH 无...

    hadoop (多节点)环境搭建

    本文将详细介绍如何搭建多节点 Hadoop 环境,包括安装 Ubuntu 操作系统、安装 Hadoop 软件、配置 SSH 无密码登录、配置 Hadoop 集群等步骤。 一、安装 Ubuntu 操作系统 在开始搭建 Hadoop 环境之前,需要安装 ...

    hadoop单节点配置

    在单节点模式下,Hadoop 默认情况下运行于 Local Mode,作为一个单一的 JAVA 进程,多用于调试。 配置文件 在单节点模式下,需要配置以下三个配置文件: 1. conf/core-site.xml:用于配置 Hadoop 的核心设置。 2....

    基于Ubuntu的Hadoop简易集群安装与配置

    ### 基于Ubuntu的Hadoop简易集群安装与配置知识点详解 #### 一、绪论 ##### 1.1 研究背景及意义 在当前信息化社会中,随着科技的发展与进步,尤其是互联网技术的普及,我们正处在一个数据爆炸的时代。各行各业都在...

    Hadoop单节点部署指导

    - **操作系统选择**:Ubuntu,一种广泛使用的Linux发行版,易于安装和配置Hadoop环境。 - **Hadoop版本选择**:根据实验需求选择合适的Hadoop版本,通常推荐使用最新稳定版以获得最佳性能和支持。 #### 四、Hadoop...

    hadoop单节点安装.docx

    本文将详细介绍在Ubuntu 12.04 64位服务器上安装Hadoop 2.2.0的单节点配置过程。 **一、环境准备** 在开始安装之前,你需要在Windows下的VMware Player 4.0.3中安装Ubuntu 12.04 64位服务器版。确保已经安装了...

    hadoop单节点安装.pdf

    在本文中,我们将深入探讨如何在Ubuntu 12.04 64位服务器上安装和配置Hadoop 2.2.0单节点环境。这个过程由雨水在2013年10月24日记录并发布在CSDN博客上。以下是详细的步骤: 首先,确保你的环境准备就绪。这包括在...

    hadoop2.6.5+Ubuntu16.04配置指南

    2. **安装Ubuntu 16.04**:在VMware中安装一个Ubuntu 16.04操作系统,这将成为集群的主节点(master node)。 3. **安装并配置JDK 1.8**:由于兼容性和后续其他程序配置的需求,JDK版本建议至少为1.8。 #### 三、...

    ubuntu上hadoop的安装及配置

    在本文中,我们将详细探讨如何在Ubuntu 10.10 (Maverick Meerkat)上通过VMware虚拟机安装并配置Hadoop集群。这个过程涵盖了从搭建虚拟环境到安装必要的软件,以及最终配置Hadoop分布式文件系统(HDFS)和MapReduce服务...

    Hadoop单节点伪分布式搭建中文版

    【Hadoop 单节点伪分布式搭建】是一种适合学习和测试Hadoop环境的简易方式,无需配置复杂的多节点集群。在单节点伪分布式模式下,所有Hadoop服务都在同一个节点上以独立Java进程的方式运行,模拟分布式环境的行为,...

    hadoop的单节点安装与配置

    linux入门级资源,对需要配置环境变量的初学者有一定作用,不喜勿喷。谢谢

    Hadoop在两台Ubuntu的VM虚拟机的集群配置

    我们可以下载Hadoop的安装包,并将其安装到Ubuntu虚拟机中。然后,我们需要配置Hadoop的环境变量,包括HADOOP_HOME、HADOOP_CONF_DIR等。 5. SSH的安装和配置:SSH(Secure Shell)是安全的远程登录协议。我们可以...

    HADOOP安装过程

    - 在Ubuntu中安装JDK、Hadoop和SSH-server。 - 配置环境变量、Hadoop及SSH-key。 - 单机环境测试Hadoop。 - 克隆单机Hadoop环境的Ubuntu,建立局域网。 - 配置主节点和从节点的IP。 - 测试网络连通性。 - 在所有节点...

    用虚拟机在ubuntu上搭建hadoop平台的单机模式

    ### 使用虚拟机在Ubuntu上搭建Hadoop平台单机模式 #### 概述 本文旨在详细介绍如何在虚拟机环境下,利用Ubuntu系统搭建Hadoop平台的单机模式。通过本教程,您可以掌握从安装虚拟机到配置Hadoop环境的全过程。本文...

    hadoop超级详细安装文档

    在本安装文档中,我们将详细介绍如何在虚拟集群环境下部署一个包含1个Master节点和2个Slave节点的Hadoop集群。 **2.1 部署1个Master和2个Slave的集群** 在开始Hadoop的安装前,你需要准备三台虚拟机。这些虚拟机...

    Ubuntu20.04搭建hadoop2.10.0集群.md

    本文档详细介绍了如何在Ubuntu20.04操作系统上搭建Hadoop2.10.0集群,包括环境配置、软件安装、网络设置、集群启动等多个方面。 ##### 1. 服务器环境 集群包含三台服务器: - **us1**:`192.168.94.136` - **us2*...

Global site tag (gtag.js) - Google Analytics