`
qindongliang1922
  • 浏览: 2190787 次
  • 性别: Icon_minigender_1
  • 来自: 北京
博客专栏
7265517b-f87e-3137-b62c-5c6e30e26109
证道Lucene4
浏览量:117722
097be4a0-491e-39c0-89ff-3456fadf8262
证道Hadoop
浏览量:126133
41c37529-f6d8-32e4-8563-3b42b2712a50
证道shell编程
浏览量:60068
43832365-bc15-3f5d-b3cd-c9161722a70c
ELK修真
浏览量:71443
社区版块
存档分类
最新评论

如何在Centos6.5下部署hadoop2.2单机伪分布式

阅读更多
hadoop2.x的稳定版本,已经发布多时了,散仙一直都用的hadoop1.x的版本,最近有项目用到hadoop2.x,所以就开始折腾hadoop2.x了,在hadoop2.x的版本里,目前最新版本已经到hadoop2.4了,但散仙在这里用的是hadoop2.2.0的版本,为什么用它? 因为这是一个稳定的版本,所以相对来说,问题比较少。
散仙在上篇博客,已经讲了如何在编译hadoop2.2.0的64位的版本,如果有不清楚怎么编译,可以参考散仙上篇博文,在这里就不涉及了。

下面,散仙以表格的形式描述下伪分布式安装
系统环境如下:

序号名称描述
1系统环境Centos6.5
2JAVA环境JDK1.7
3Haoop版本hadoop2.2.0


安装步骤如下:
序号步骤
1解压hadoop,并配置环境变量
2使用which hadoop命令,测试是否成功
3配置core-site.xml
4配置hdfs-site.xml
5配置yarn-site.xml(非必须,使用默认也可)
6配置mapred-site.xml
7配置mapred-env.sh里面的JAVA路径
8如上的配置完成后,需要新建几个文件夹,来提供HDFS的格式化底层一个是hadoop的tmp文件夹,另外的是namenode和datanode的文件夹,来分别存储各自的信息
9上面一切完成后,即可执行hadoop namenode -format 进行格式化
10然后启动伪分布式集群,执行命令sbin/start-all.sh 最后使用JPS查看JAVA进程
11配置本机的hosts文件,映射主机名信息


下面来详细说下,各个步骤的具体操作:
在这之前,最好配置好本机的SSH无密码登陆操作,避免hadoop进程之间通信时,需要验证。

下面是各个xml文件的配置

<!-- core-site.xml配置 -->
<configuration>
    <property>  
        <name>fs.default.name</name>  
        <value>hdfs://192.168.46.28:9000</value>  
    </property>  
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/root/hadoop/tmp</value>
  </property>

</configuration>


<!-- hdfs-site.xml配置 -->
 
<configuration>
<property>  
   <name>dfs.replication</name>  
   <value>1</value>  
 </property>  

 <property>  
   <name>dfs.namenode.name.dir</name>  
   <value>/root/hadoop/nddir</value>  
 </property>  


 <property>  
   <name>dfs.datanode.data.dir</name>  
   <value>/root/hadoop/dddir</value>  
 </property>  

<property>  
  <name>dfs.permissions</name>  
  <value>false</value>  
</property>

</configuration>




<!--    yarn-site.xml  不用配置,使用默认属性即可 -->
<configuration>


</configuration>



<!--  mapred-site.xml的配置 -->
<configuration>
<property>  
    <name>mapreduce.cluster.temp.dir</name>  
    <value></value>  
    <description>No description</description>  
    <final>true</final>  
  </property>  
  
  <property>  
    <name>mapreduce.cluster.local.dir</name>  
    <value></value>  
    <description>No description</description>  
    <final>true</final>  
  </property>  
</configuration>


mapred-env.sh里面的配置
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements.  See the NOTICE file distributed with
# this work for additional information regarding copyright ownership.
# The ASF licenses this file to You under the Apache License, Version 2.0
# (the "License"); you may not use this file except in compliance with
# the License.  You may obtain a copy of the License at
#
#     http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.

export JAVA_HOME=/usr/local/jdk

export HADOOP_JOB_HISTORYSERVER_HEAPSIZE=1000

export HADOOP_MAPRED_ROOT_LOGGER=INFO,RFA

#export HADOOP_JOB_HISTORYSERVER_OPTS=
#export HADOOP_MAPRED_LOG_DIR="" # Where log files are stored.  $HADOOP_MAPRED_HOME/logs by default.
#export HADOOP_JHS_LOGGER=INFO,RFA # Hadoop JobSummary logger.
#export HADOOP_MAPRED_PID_DIR= # The pid files are stored. /tmp by default.
#export HADOOP_MAPRED_IDENT_STRING= #A string representing this instance of hadoop. $USER by default
#export HADOOP_MAPRED_NICENESS= #The scheduling priority for daemons. Defaults to 0.


然后,建对应的几个文件夹即可,路径都在hadoop2.2的根目录下即可,
然后执行格式化命令bin/hadoop namenode -format即可;

最后使用jps命令,查看进程,如果有以下几个进程名称,就代表部署伪分布式成功

4887 NodeManager
4796 ResourceManager
4661 SecondaryNameNode
4524 DataNode
4418 NameNode
6122 Jps


然后,访问界面端口,注意与之前的配置文件里一致,namenode的端口号仍为50070,原来1.x的50030端口,已经没有了,可以访问8088的yarn的端口,来查看,具体的截图如下:







OK,此时,我们已经成功的完成伪分布式的部署,下一步我们要做的,就是跑一个经典的MR程序Hellow World,来测试我们的集群了。


  • 大小: 420.3 KB
  • 大小: 363.4 KB
分享到:
评论

相关推荐

    CentOS6.5系统下Hadoop2.6.0完全分布式环境安装与配置信息介绍

    ### CentOS6.5系统下Hadoop2.6.0完全分布式环境安装与配置知识点 #### 一、系统环境准备 **1.1 修改主机名** 为了确保主机名的一致性,首先需要更改主机名为“Master”: ```bash sudo vim /etc/sysconfig/...

    hadoop2.6 centos6.5 伪分布式环境部署 实例

    本文将详细介绍如何在 CentOS 6.5 环境中部署 Hadoop 2.6 伪分布式环境,包括环境准备、Hadoop 安装、配置和测试等步骤。 环境准备 在开始部署 Hadoop 之前,需要准备好 Linux 环境。这里选择 CentOS 6.5 作为操作...

    VMware10+CentOS6.5+Hadoop2.2+Zookeeper3.4.6+HBase0.96安装过程详解

    VMware10+CentOS6.5+Hadoop2.2+Zookeeper3.4.6+HBase0.96安装过程详解 用于解决分布式集群服务器

    CentOS6.5mini版Hadoop集群搭建流程

    这个过程适用于想要学习Hadoop分布式计算框架或建立实验环境的IT专业人士。首先,确保你的系统是CentOS6.5,并且你已经安装了虚拟机,配置了主机名和网络。 1. **网络配置与验证** - 在所有节点上,你需要确认网络...

    基于centos6.5 已经编译好的hadoop-2.6.4

    标题"基于centos6.5 已经编译好的hadoop-2.6.4"指的是在CentOS 6.5操作系统环境下,已经完成了对Hadoop 2.6.4版本的编译工作。这通常意味着用户可以直接在同样环境或相似环境中使用这个编译好的版本,而无需自己进行...

    [整理]Centos6.5 + hadoop2.6.4环境搭建

    在本教程中,我们将深入探讨如何在CentOS 6.5操作系统上搭建Hadoop 2.6.4环境。Hadoop是一个开源的分布式计算框架,主要用于处理和存储大量数据。让我们一步步来了解这个过程。 首先,确保你的系统是最新状态,通过...

    Centos6.5编译64位Hadoop2.7.5.tat.gz

    【标题】"Centos6.5编译64位Hadoop2.7.5.tgz"涉及的关键技术点包括Hadoop、操作系统环境、源码编译以及系统兼容性。Hadoop是一个开源的分布式计算框架,它允许在大量廉价硬件上处理大规模数据。在这个场景中,用户将...

    hadoop伪分布式搭建centos6.5+hadoop2.7

    在VMware虚拟机上,安装hadoop集群,采用的是伪分布式搭建,从安装jdk到hadoop的环境配置,全套都有,依据这个文档可以在个人Vmware上搭建自己的hadoop集群,这个集群有一个主节点,两个从节点。按照这个文档搭建后...

    Hadoop伪分布式配置.txt

    Hadoop的安装分为单机方式、伪分布式方式和完全分布式方式。 这里主要讲解在CentOS6.5环境中Hadoop的伪分布式安装配置。

    CentOS6.5x64下安装19实体节点Hadoop2.2.0集群配置指南

    资源名称:CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南内容简介: CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南主要讲述的是CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南;...

    hadoop安装包centos6.5-hadoop-2.6.4.tar.gz

    3. **解压Hadoop**:使用`tar`命令解压下载的文件,例如 `tar -zxvf centos6.5-hadoop-2.6.4.tar.gz`,这将在当前目录下创建一个名为 `hadoop-2.6.4` 的目录。 4. **配置Hadoop**:编辑 `hadoop-2.6.4/etc/hadoop` ...

    centos6.5-hadoop-2.6.0-cdh5.9.0-nativelib

    标题“centos6.5-hadoop-2.6.0-cdh5.9.0-nativelib”提及的是一个专为64位CentOS 6.5操作系统编译的Hadoop 2.6.0 CDH 5.9.0的本地库(nativelib)打包文件。这个压缩包包含了运行Hadoop在CentOS环境下所需的本机库,...

    hadoop 64位下载 centos6.5环境编译

    在这个场景中,我们关注的是在64位操作系统环境下,在CentOS 6.5这个Linux发行版上安装和编译Hadoop的过程。 首先,我们需要理解Hadoop的核心组件。Hadoop主要由两个关键部分组成:Hadoop Distributed File System ...

    hadoop-2.8.1 CentOS6.5编译的源码

    《Hadoop 2.8.1在CentOS6.5上的源码编译详解》 Hadoop是一个开源的分布式计算框架,广泛应用于大数据处理领域。本文将深入探讨如何在CentOS 6.5操作系统上,从源代码编译Hadoop 2.8.1版本,以获取针对该系统的优化...

    VM+CentOS+hadoop2.7搭建hadoop完全分布式集群

    本文旨在详细介绍如何使用VMware Workstation(简称VM)结合CentOS 6.5操作系统来搭建Hadoop 2.7的完全分布式集群。此文档是根据作者的实际经验总结而成,主要面向那些希望深入了解并掌握Hadoop集群部署的技术人员或...

    linux(centos 6.5)hadoop集群搭建。

    在Linux(CentOS 6.5)环境下搭建Hadoop集群是一项技术性较强的工作,涉及到多个步骤和组件的配置。Hadoop是Apache软件基金会的一个开源分布式计算框架,它允许在廉价硬件上处理大规模数据集,提供了高可靠性、高扩展...

    cent os 6.5 编译hadoop2.6.0源码

    在本文中,我们将深入探讨如何在Cent OS 6.5操作系统上编译Hadoop 2.6.0的源码,以及如何利用编译生成的lib包目录替换官方下载资源中的对应目录。这个过程对于那些希望自定义Hadoop配置、优化性能或解决特定环境下的...

    hadoop2.7.3伪分布式环境搭建与验证.docx

    本教程将详细介绍如何在本地机器上搭建 Hadoop 2.7.3 的伪分布式环境,为初学者提供一个实践和学习 Hadoop 的基础平台。 **总体环境** 在搭建 Hadoop 伪分布式环境之前,我们需要一个适合运行 Hadoop 的基础环境。...

    hadoop安装部署 完全分布式

    【Hadoop 安装部署完全分布式】 在搭建Hadoop完全分布式集群时,我们需要遵循一系列步骤,确保所有组件正确配置并协同工作。以下是基于三台机器的集群安装部署过程的详细说明: 1. **所需软件及版本** - Hadoop: ...

Global site tag (gtag.js) - Google Analytics