`

Hadoop2.2.0版本多节点集群及eclipse开发环境搭建

 
阅读更多

Hadoop2.2.0版本多节点集群及eclipse开发环境搭建

分类: Hadoop开发 457人阅读 评论(0) 收藏 举报

目录(?)[+]

 

 

 

鉴于部分网友在搭建hadoop2.2.0过程中遇到各种各样的问题,特记录本人搭建集群环境,以作参考。

环境:

1、虚拟机:VMware® Workstation,版本:10.0.0

2、操作系统:ubuntu-13.10

3、hadoop版本:hadoop-2.2.0下载地址

4、jdk1.6.0_45

5、本文所用两台机器分工如下:

 

hostname user ip functions
master hadoop 192.168.234.128 NameNode/SecondaryNameNode/ResouceManager
slave1 hadoop 192.168.234.129 DataNode/NodeManager

6、登陆工具:SecureCRT Version 6.2.0

7、开发工具:eclipse-kepler

在此,虚拟机中ubuntu操作系统的安装以及设置不再赘述。

集群环境配置步骤:

1、安装jdk,并配置环境变量:

vi /etc/profile

加入下列几行(本文java安装路径为:/usr/local/java/):

  1. export JAVA_HOME=/usr/local/java/jdk1.6.0_45  
  2. export CLASSPATH=.:$JAVA_HOME/lib.tools.jar:$JAVA_HOME/lib/dt.jar  
  3. export PATH=$JAVA_HOME/bin:$PATH  

 

保存后输入:source /etc/profile 以使其生效。

验证:输入:java -version

2、安装ssh

sudo apt-get install ssh

设置local无密码登陆

安装完成后会在当前用户主目录,即这里的/home/hadoop下产生一个隐藏文件夹.ssh(ll 或者ls -a 命令可以查看隐藏文件)。如果没有这个文件,自己新建即可,命令为:mkdir .ssh。

具体步骤如下:

2.1、 进入.ssh文件夹

2.2、 ssh-keygen -t  rsa 之后一路回 车(产生秘钥)

2.3、 把id_rsa.pub 追加到授权的 key 里面去(cat id_rsa.pub >> authorized_keys)

2.4、 重启 SSH 服 务命令使其生效 :service ssh restart

此时已经可以进行ssh localhost的无密码登陆

现在可以用SecureCRT登录了,SecureCRT的会话设置如下图:

 

3、修改主机名(hostname)、hosts

3.1、vi /etc/hostname

改为:master

3.2、vi /etc/hosts

如下图所示:

4、关闭防火墙:

ufw disable

5、安装hadoop2.2.0

本文将下载的hadoop-2.2.tar.gz解压到了/home/hadoop路径下
5.1在master本地文件系统创建以下文件夹:

~/dfs/name

~/dfs/data

~/temp

5.2修改hadoop配置文件

1)hadoop-env.sh

修改JAVA_HOME值:

  1. export JAVA_HOME=/usr/local/java/jdk1.6.0_45  

2)、yarn-env.sh

修改JAVA_HOME值:

  1. export JAVA_HOME=/usr/local/java/jdk1.6.0_45  

3)、slaves

加入:slave1

4)、core-site.xml

  1. <configuration>  
  2.     <property>  
  3.          <name>fs.defaultFS</name>  
  4.                 <value>hdfs://master:9000</value>  
  5.     </property>  
  6.   
  7.     <property>  
  8.          <name>io.file.buffer.size</name>  
  9.          <value>131072</value>  
  10.     </property>  
  11.   
  12.     <property>  
  13.          <name>hadoop.tmp.dir</name>  
  14.          <value>file:/home/hadoop/temp</value>  
  15.          <description>Abase for other temporary directories.</description>  
  16.     </property>  
  17.   
  18.     <property>  
  19.          <name>hadoop.proxyuser.hadoop.hosts</name>  
  20.          <value>*</value>  
  21.     </property>  
  22.   
  23.     <property>  
  24.          <name>hadoop.proxyuser.hadoop.groups</name>  
  25.          <value>*</value>  
  26.     </property>  
  27.   
  28. </configuration>  

5)、hdfs-site.xml

  1. <configuration>  
  2.     <property>  
  3.     <name>dfs.namenode.secondary.http-address</name>  
  4.          <value>master:9001</value>  
  5.     </property>  
  6.   
  7.     <property>  
  8.     <name>dfs.namenode.name.dir</name>  
  9.     <value>file:/home/hadoop/dfs/name</value>  
  10.     </property>  
  11.   
  12.     <property>  
  13.         <name>dfs.datanode.data.dir</name>  
  14.         <value>file:/home/hadoop/dfs/data</value>  
  15.     </property>  
  16.   
  17.     <property>  
  18.         <name>dfs.replication</name>  
  19.         <value>3</value>  
  20.     </property>  
  21.   
  22.      <property>  
  23.         <name>dfs.webhdfs.enabled</name>  
  24.         <value>true</value>  
  25.     </property>  
  26. </configuration>  


6)、mapred-site.xml

  1. <configuration>  
  2.     <property>  
  3.         <name>mapreduce.framework.name</name>  
  4.         <value>yarn</value>  
  5.     </property>  
  6.   
  7.     <property>  
  8.         <name>mapreduce.jobhistory.address</name>  
  9.         <value>master:10020</value>  
  10.     </property>  
  11.   
  12.     <property>  
  13.         <name>mapreduce.jobhistory.webapp.address</name>  
  14.         <value>master:19888</value>  
  15.     </property>  
  16. </configuration>  

7)、yarn-site.xml

  1. <configuration>  
  2.   
  3. <!-- Site specific YARN configuration properties -->  
  4.     <property>  
  5.         <name>yarn.nodemanager.aux-services</name>  
  6.         <value>mapreduce_shuffle</value>  
  7.     </property>  
  8.   
  9.     <property>  
  10.         <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>  
  11.         <value>org.apache.hadoop.mapred.ShuffleHandler</value>  
  12.     </property>  
  13.   
  14.     <property>  
  15.         <name>yarn.resourcemanager.address</name>  
  16.         <value>master:8032</value>  
  17.     </property>  
  18.   
  19.     <property>  
  20.         <name>yarn.resourcemanager.scheduler.address</name>  
  21.         <value>master:8030</value>  
  22.     </property>  
  23.   
  24.     <property>  
  25.         <name>yarn.resourcemanager.resource-tracker.address</name>  
  26.         <value>master:8031</value>  
  27.     </property>  
  28.   
  29.     <property>  
  30.         <name>yarn.resourcemanager.admin.address</name>  
  31.         <value>master:8033</value>  
  32.     </property>  
  33.   
  34.     <property>  
  35.         <name>yarn.resourcemanager.webapp.address</name>  
  36.         <value>master:8088</value>  
  37.     </property>   
  38.   
  39. </configuration>  

 6、克隆

hadoop集群中每个机器上面的配置基本相同,所以我们先在namenode上面进行配置部署,然后再复制到其他机器,然后稍作修改即可。

 修改slave1的hostname:slave1

7、启动验证

7.1 启动hadoop

进入安装目录: cd  ~/hadoop-2.2.0/

格式化namenode:./bin/hdfs namenode –format

启动hdfs: ./sbin/start-dfs.sh

查看java进程命令:jps

此时在master上面运行的进程有:

namenode

secondarynamenode

slave1上面运行的进程有:datanode

启动yarn: ./sbin/start-yarn.sh

此时在master上面运行的进程有:

namenode

secondarynamenode

resourcemanager

slave1上面运行的进程有:

datanode

nodemanager

或者使用命令./sbin/start-all.sh

查看集群状态:./bin/hdfs dfsadmin –report


查看文件块组成:  ./bin/hdfs fsck / -files -blocks

查看HDFS:     http://master:50070

 开发环境配置:

本文是在windows环境下安装eclipse,然后连接hadoop

1、将编译好的hadoop-eclipse-plugin-2.2.0.jar插件拷贝到~\eclipse\plugins下

2、按照下图所示配置eclipse:

配置hadoop路径

打开Map/Reduce视图:

新建并编辑hadoop参数:

 3、配置完之后的eclipse:

 

分享到:
评论

相关推荐

    如何在Windows下的eclipse调试Hadoop2.2.0分布式集群

    在Windows环境下,使用Eclipse进行Hadoop 2.2.0分布式集群的调试是一项重要的技能,这可以帮助开发者更好地理解和优化Hadoop程序。以下是一些关键的知识点,将指导你完成这个过程。 首先,Hadoop是一个开源的分布式...

    Hadoop2.2.0安装配置及实例教程入门宝典

    本教程将带你逐步走进Hadoop的世界,从零开始,教你如何在本地环境中安装配置Hadoop2.2.0版本,然后结合Eclipse开发环境,编写并运行Hadoop实例程序。 首先,了解Hadoop的基本概念是必要的。Hadoop是由Apache基金会...

    hadoop-2.2.0依赖的jar包

    "hadoop-eclipse-plugin-2.2.0依赖包"是针对Eclipse IDE的插件,使得开发者能在Eclipse环境中方便地进行Hadoop应用的开发和调试。 Hadoop的依赖jar包主要包含以下几个方面: 1. **HDFS相关**:HDFS是Hadoop的核心...

    Hadoop2.2.0 HDFS开发依赖的jar包

    Hadoop2.2.0版本是一个重要的里程碑,引入了诸多改进和优化,增强了系统的稳定性和性能。为了在Eclipse这样的开发环境中进行HDFS相关的开发工作,你需要正确的jar包支持。下面我们将详细讨论Hadoop2.2.0 HDFS开发所...

    hadoop-eclipse插件各版本合集

    本合集包含了多个版本的Hadoop-Eclipse插件,包括2.2.0, 2.4.1, 2.6.0, 2.7.1, 2.7.2, 2.7.3以及2.7.6,这些版本覆盖了Hadoop的多个主要发展阶段,适应了不同用户的需求。 1. **Hadoop简介**:Hadoop是一个开源的...

    hadoop-eclipse-plugin[2.2.0 + 2.4.1 + 2.6.0 + 2.7.3]

    通过这款插件,用户可以直接在Eclipse中创建HDFS文件系统目录,浏览Hadoop集群的节点状态,甚至调试MapReduce任务,极大地提升了开发效率。 在2.2.0、2.4.1、2.6.0和2.7.3这些版本中,Hadoop Eclipse Plugin逐步...

    hadoop2+eclipse+win7开发所需环境

    解压后,它提供了Hadoop运行时所需的配置文件、库文件和可执行文件,是搭建本地或远程Hadoop开发环境的基础。 在配置这个开发环境时,你需要做以下几步: 1. 安装Java Development Kit (JDK):因为Hadoop是用Java...

    hadoop-eclipse-plugin

    Hadoop Eclipse Plugin是Apache Hadoop项目的一个重要组成部分,它为流行的集成开发环境(IDE)Eclipse提供了与Hadoop Distributed File System (HDFS)交互的便捷工具。通过这个插件,开发者可以直接在Eclipse中创建...

    Eclipse链接Hadoop集群配置.docx

    为了更好地利用Hadoop的强大功能,开发人员经常需要在本地开发环境中与Hadoop集群进行交互。本文将详细介绍如何在Eclipse IDE中配置Hadoop集群,以便进行高效的大数据应用开发。 #### 二、准备工作 **1. 确保本地...

    Win10的eclipse连接CentOS的Hadoop集群.doc

    在Windows 10环境下使用Eclipse连接到CentOS上的Hadoop集群是一项常见的开发任务,尤其对于分布式计算和大数据处理的开发者来说。以下是一份详细步骤的指南,帮助你完成这一配置。 首先,确保你的Windows 10系统上...

    Spark+Hadoop+IDE环境搭建

    本文将详细介绍如何在IDE环境下搭建Spark与Hadoop的集成环境。 首先,我们需要了解Hadoop的组成部分。Hadoop主要由HDFS(Hadoop Distributed File System)和MapReduce两部分组成。HDFS是分布式文件系统,用于存储...

    Windows环境下Hadoop开发环境配置.docx

    - 下载适用于Hadoop 2.x版本的Hadoop for Eclipse插件,例如hadoop-eclipse-plugin-2.2.0。 - 将插件复制到Eclipse安装目录的plugins子目录,然后重启Eclipse。 5. **配置Eclipse**: - 配置Hadoop安装路径:在...

    spark example 2.2.0版本 maven项目

    在这个“spark example 2.2.0版本 maven项目”中,我们可以深入理解Spark的基本用法以及如何在Java环境中结合Maven构建Spark应用程序。 1. **Spark核心概念**: Spark的核心概念包括RDD(Resilient Distributed ...

    hadoop资料大全

    【Eclipse插件】"hadoop-eclipse-plugin-2.2.0.jar"是针对Eclipse集成开发环境的Hadoop插件,它使得开发者可以直接在Eclipse中创建、管理和运行Hadoop项目。这个插件提供了图形化的HDFS文件浏览、JobTracker监控、...

    大数据平台搭建实验手册-罗登1

    【大数据平台搭建实验手册-罗登1】是关于构建大数据处理环境的一份详细指南,主要涵盖了Hadoop生态系统中的多个组件的安装与配置。本实验由罗登同学在信息科学与技术专业的计算机科学与技术课程中完成,使用了章鱼...

Global site tag (gtag.js) - Google Analytics