`
小网客
  • 浏览: 1244080 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop2.7.2在Ubuntu12.04下分布式安装指南

 
阅读更多

一、系统及版本准备

JDK:jdk-7u2-linux-i586

Hadoop:hadoop-2.7.0

安装目录:

/usr/local/jdk

/usr/local/hadoop

节点及IP(/etc/hosts,注意需要重启网络):

192.168.56.100 os.data0

192.168.56.101 os.data1

192.168.56.102 os.data2

二、创建系统用户组

1.创建hadoop用户及组密码为hadoop

$ sudo su
# adduser hadoop

2.sudo用户授权:

root用户下:
vi /etc/sudoers 

添加:

写道
root ALL=(ALL:ALL) ALL
hadoop ALL=(ALL:ALL) ALL

三、配置双向免密钥登录,参见另外一个博客

四、授权及环境变量设置:

sudo chown -R hadoop:hadoop /usr/local/hadoop

环境变量配置:

sudo vi /etc/profile

末尾追加内容如下:

export JAVA_HOME=/usr/local/jdk
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

#set hadoop environment
export HADOOP_INSTALL=/usr/local/hadoop
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL

刷新生效:

$source /etc/profile

五、分布式配置:

在hadoop中创建几个文件夹:

$cd /usr/local/hadoop
/usr/local/hadoop$ mkdir tmp
/usr/local/hadoop$ mkdir tmp/dfs
/usr/local/hadoop$ mkdir tmp/dfs/data
/usr/local/hadoop$ mkdir tmp/dfs/name
/usr/local/hadoop$ sudo chown hadoop:hadoop tmp

修改配置文件涉及文件列表如下:

hadoop-env.sh 

yarn-env.sh 

core-site.xml 

hdfs-site.xml 

yarn-site.xml 

mapred-site.xml 

slaves

1.hadoop-env.sh :

/usr/local/hadoop/etc/hadoop$ sudo vi hadoop-env.sh

修改的内容如下:

export JAVA_HOME=/usr/local/jdk

2.yarn-env.sh 

内容:

export JAVA_HOME=/usr/local/jdk

3.core-site.xml

内容:

<configuration>
       <property>
                <name>fs.defaultFS</name>
                <value>hdfs://os.data0:8020</value>
       </property>
       <property>
                <name>io.file.buffer.size</name>
                <value>131072</value>
        </property>
       <property>
               <name>hadoop.tmp.dir</name>
               <value>file:/usr/local/hadoop/tmp</value>
               <description>Abase for other temporary   directories.</description>
       </property>
        <property>
               <name>hadoop.proxyuser.hosts</name>
               <value>*</value>
       </property>
       <property>
               <name>hadoop.proxyuser.groups</name>
               <value>*</value>
       </property>
</configuration>

4.hdfs-site.xml

内容:

<configuration>
       <property>
                <name>dfs.namenode.secondary.http-address</name>
               <value>os.data0:9001</value>
       </property>
     <property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/name</value>
       </property>
      <property>
              <name>dfs.datanode.data.dir</name>
              <value>file:/usr/local/hadoop/tmp/dfs/data</value>
       </property>
       <property>
               <name>dfs.replication</name>
               <value>1</value>
        </property>
        <property>
                 <name>dfs.webhdfs.enabled</name>
                  <value>true</value>
         </property>
</configuration>

5.mapred-site.xml

内容:

<configuration>
          <property>                                                          
           <name>mapreduce.framework.name</name>
                <value>yarn</value>
           </property>
          <property>
                  <name>mapreduce.jobhistory.address</name>
                  <value>os.data0:10020</value>
          </property>
          <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>os.data0:19888</value>
       </property>
</configuration>

6.yarn-site.xml

内容:

<configuration>
        <property>
               <name>yarn.nodemanager.aux-services</name>
               <value>mapreduce_shuffle</value>
        </property>
        <property>                                                                
               <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
               <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>
               <name>yarn.resourcemanager.address</name>
               <value>os.data0:8032</value>
       </property>
       <property>
               <name>yarn.resourcemanager.scheduler.address</name>
               <value>os.data0:8030</value>
       </property>
       <property>
            <name>yarn.resourcemanager.resource-tracker.address</name>
             <value>os.data0:8031</value>
      </property>
      <property>
              <name>yarn.resourcemanager.admin.address</name>
               <value>os.data0:8033</value>
       </property>
       <property>
               <name>yarn.resourcemanager.webapp.address</name>
               <value>os.data0:8088</value>
       </property>
</configuration>

7.slaves 

内容:

os.data1
os.data2

把配置的配置文件scp到其他节点上,注意scp不覆盖

六、格式化namenode

/usr/local/hadoop$ bin/hdfs namenode -format

如果碰到错误注意解决即可

七、启动

/usr/local/hadoop$ sbin/start-all.sh

通过jps查看进程即可

 

0
0
分享到:
评论

相关推荐

    hadoop2.7.2(window版本).zip

    这个资源包"Hadoop 2.7.2 (Window版本)"是专为在Windows操作系统上进行大数据开发设计的,它包含了Hadoop在Windows环境下的安装、配置和运行所需的所有组件。 Hadoop的核心由两个主要部分组成:HDFS(Hadoop ...

    hadoop2.7.2(Linux版本).zip

    本文将深入探讨Hadoop 2.7.2的主要组件、功能以及在Linux环境下的安装与使用。 一、Hadoop生态系统概述 Hadoop由两个主要部分组成:Hadoop分布式文件系统(HDFS)和MapReduce。HDFS为大规模数据提供了高容错性和高...

    window版本下的hadoop 2.7.2版本的hadoop.dll和winutils.exe

    本文将详细介绍这两个组件以及如何在Windows系统下配置Hadoop 2.7.2版本的开发环境。 首先,`hadoop.dll`是Hadoop在Windows平台上的一个动态链接库文件,它包含了Hadoop运行所需的特定功能。由于Hadoop主要设计为在...

    hadoop-2.7.2.rar

    在Linux环境下部署Hadoop 2.7.2,首先需要在Window上解压缩“hadoop-2.7.2.rar”文件,然后将解压后的文件复制到Linux服务器上。配置Hadoop环境涉及以下几个关键步骤: 1. **配置环境变量**:在`~/.bashrc`或`~/....

    hadoop2.7.2安装依赖文件.zip

    在安装Hadoop 2.7.2时,你需要将这些依赖文件放置在正确的路径下,并根据你的环境变量设置确保能够正确找到它们。例如,`winutils.exe`通常需要放在%HADOOP_HOME%\bin目录下,`hadoop.dll`则应该在系统PATH环境变量...

    centos7 64位下编译Hadoop2.7.2源码库文件

    在Linux系统,特别是CentOS 7 64位环境下,编译开源软件如Hadoop是一项常见的任务,这对于理解和优化Hadoop在本地环境中的运行至关重要。Hadoop 2.7.2是一个稳定版本,包含了分布式存储(HDFS)和计算框架...

    hadoop2.7.2安装依赖文件

    hadoop2.7.2安装依赖文件,用于在window下调试hadoop! hadoop2.7.2安装依赖文件,用于在window下调试hadoop hadoop2.7.2安装依赖文件,用于在window下调试hadoop

    Hadoop2.7.2LIUNX集群(2)所需JDK1.8.gz

    Hadoop2.7.2LIUNX集群(2)所需JDK1.8.gzHadoop2.7.2LIUNX集群(2)所需JDK1.8.gzHadoop2.7.2LIUNX集群(2)所需JDK1.8.gzHadoop2.7.2LIUNX集群(2)所需JDK1.8.gz

    hadoop-2.7.2资源

    用户可以在这里下载到二进制和源码两种形式的包,用于安装、配置和开发基于Hadoop的应用。 压缩包子文件的文件名称列表中: 1. "hadoop-2.7.2 (1).tar.gz" 这是Hadoop 2.7.2的预编译二进制版本,包含了运行Hadoop所...

    Hadoop2.7.2伪分布部署

    伪分布部署是指在单机上模拟分布式环境运行Hadoop的过程,即一个节点既是NameNode也是DataNode,既执行Master角色又执行Slave角色,这为开发者在没有多台机器的情况下也能体验和学习Hadoop的分布式工作原理提供了...

    Hadoop2.7.2Windows10文件

    Windows10 环境下编译的Hadoop2.7.2 Windows10 环境下编译的Hadoop2.7.2 Windows10 环境下编译的Hadoop2.7.2

    Hadoop安装教程_单机/伪分布式配置_Hadoop2.7.1/Ubuntu 16.04

    本教程主要讲述了在 Ubuntu 16.04 环境下安装 Hadoop 2.7.1 的步骤,包括单机模式、伪分布式模式和分布式模式三种安装方式。以下是本教程的知识点总结: 1. 安装前的准备工作:创建 hadoop 用户,设置密码,增加...

    hadoop-2.7.2.tar.gz

    这个版本的Hadoop在2015年发布,提供了许多改进和新特性,使得它能在各种Linux环境下稳定运行,从而满足企业对大规模数据处理的需求。 一、Hadoop的核心组件 1. HDFS(Hadoop Distributed File System):Hadoop的...

    Hadoop_2.7.2安装包.rar

    在安装Hadoop 2.7.2时,我们需要遵循以下步骤: 1. **环境准备**:确保操作系统为Linux,因为Hadoop更适合在Linux环境下运行。安装Java开发环境(JDK),Hadoop依赖Java运行。 2. **解压安装包**:使用`unrar`命令...

    hadoop2.7.2HA集群安装

    ### Hadoop 2.7.2 HA集群安装详解 #### 一、概述 Hadoop是一个开源软件框架,用于分布式存储和处理大型数据集。本文档将详细介绍如何搭建一个Hadoop 2.7.2版本的高可用(High Availability,简称HA)集群。此集群...

    hadoop2.7.2源码包

    Apache Hadoop 2.7.2 是一个广泛使用的开源框架,专为分布式存储和计算而设计,是大数据处理领域的重要工具。源码包提供了一窥Hadoop内部运作机制的机会,对于开发者、研究者以及想要深入理解Hadoop工作原理的人来说...

    hadoop2.7.2-win10

    我的Java安装在D:\Java,hadoop安装在D:\env\hadoop-2.7.2,材料中的hadoop-2.7.2-win10是配置前的版本,材料中的hadoopbin是工具类,需要替换原文档中的D:\env\hadoop-2.7.2\bin,材料中的hadoop-2.7.2配置完成后是配置...

    hadoop2.7.2的hadoop.dll和winutils.exe

    以上就是在Windows 7环境中安装和配置Hadoop 2.7.2所需的关键步骤,其中hadoop.dll和winutils.exe是两个不可或缺的部分。确保这些文件正确配置并能够被系统识别,是成功运行Hadoop的前提。理解这两个文件的作用以及...

    hadoop2.7.2依赖文件

    在安装和配置过程中,用户需要注意以下几点: 1. **环境变量配置**:正确设置`HADOOP_HOME`、`PATH`等环境变量,确保`winutils.exe`和`hadoop.dll`能够被系统找到。 2. **JDK要求**:Hadoop运行需要Java ...

    win10下编译过的hadoop2.7.2 jar包

    在Windows 10环境下编译Hadoop 2.7.2,首先需要确保系统安装了Java Development Kit (JDK) 和 Microsoft Visual Studio(因为Hadoop的部分组件是用C++编写的)。然后,你需要下载Hadoop的源代码,将其解压,并在...

Global site tag (gtag.js) - Google Analytics