`
youguofu
  • 浏览: 26018 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop集群环境的搭建

阅读更多

hadoop集群环境的搭建

 

此处所用hadoop版本为2.5.2 可以从官网上下载 然后解压

 

我是解压在了/usr/hadoop 下  (目录随自己习惯)

 

设备

 

192.168.159.31  NameNode

 

192.168.159.32  DataNode

 

192.168.159.33  DataNode

 

================================================================

 

第一步: 在hdfs-env.sh中 添加 JAVA_HOME

 

第二步:在yarn-env.sh中 添加 JAVA_HOME

 

第三步:vim core-site.xml   在<configuration></configuration>中添加 

 

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/hadoop/tmp</value>

<description>Abase for other temporary directories.</description>

</property>

<property>

<name>fs.defaultFS</name>

<value>hdfs://192.168.159.31:9000</value>

</property>

<property>

<name>io.file.buffer.size</name>

<value>4096</value>

</property>

 

 

第四步:vim hdfs-site.xml    在<configuration></configuration>中添加 

 

<property>

<name>dfs.nameservices</name>

<value>hadoop-cluster1</value>

</property>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>192.168.159.31:50090</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:///usr/hadoop/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:///usr/hadoop/dfs/data</value>

</property>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

 

 

第五步:vim marped-site.xml   在<configuration></configuration>中添加

 

 

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobtracker.http.address</name>

<value>192.168.159.31:50030</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>192.168.159.31:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>192.168.159.31:19888</value>

</property>

 

 

第六步:vim yarn-site.xml   在<configuration></configuration>中添加

 

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.resourcemanager.address</name>

<value>192.168.159.31:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>192.168.159.31:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>192.168.159.31:8031</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>192.168.159.31:8033</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>192.168.159.31:8088</value>

</property>

 

 

第七步:vim slaves

192.168.159.32

192.168.159.33

 

 第八步:(此步骤需要在各个虚拟机上执行)

 

在每个虚拟机上  vim /etc/hosts    这样设置的后可以防止hdfs找不到主机

 

IP  主机名

 

比如在:  192.168.159.31虚拟机上:

 

192.168.159.31 node1

=====================================

注意:在启动之前,先设置好NameNode到 DataNode  ssh免密码 (很简单 网上都是答案,我不在介绍);防火墙关闭

 

第九步:

      把配置好的hadoop  scp到DataNode上即可

 

 

最后:在NameNode上

 

hadoop namenode -format (这个只是格式化下namenode的环境)

 

 

 

启动: sbin目录下 sh start-all.sh 

 

检验:

在NameNode上jps 可以得到类似于这样

 

3542 Jps

3291 ResourceManager

3063 NameNode

 

在DataNode上jps得到类似于

 

2134 NodeManager

2041 DataNode

2247 Jps

 

 

最后可以在页面上输入网址:http://192.168.159.31:50070

 

                                             http://192.168.159.31:8088

 

结束.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

分享到:
评论

相关推荐

    Hadoop集群环境搭建

    Hadoop集群环境搭建是大数据处理的核心组件之一,本文将详细介绍Hadoop集群环境的搭建过程,包括集群规划、前置条件、免密登录、集群搭建、提交服务到集群等几个方面。 集群规划 在搭建Hadoop集群环境时,需要首先...

    1.hadoop集群环境搭建.docx

    基于Centos7下的hadoop2.7集群的搭建。(在vmware中的2台虚拟机。)

    Hadoop集群环境搭建.md

    Hadoop集群环境搭建,实战篇

    linux下Hadoop集群环境搭建

    在Linux环境下搭建Hadoop集群是一项复杂但至关重要的任务,它为大数据处理提供了强大的分布式平台。以下将详细介绍如何在一台虚拟机上安装多台Linux服务节点,并构建Hadoop集群环境。 首先,我们需要准备一个基础...

    hadoop集群环境搭建

    hadoop单机和集群搭建过程,一共三个节点,很详细,每一步都有截图

    hadoop学习笔记(一、hadoop集群环境搭建).docx

    【Hadoop集群环境搭建】 Hadoop是一个开源的分布式计算框架,它允许在大规模集群中运行应用程序,处理海量数据。在本文中,我们将详细介绍如何搭建一个Hadoop集群环境,包括必要的步骤和配置。首先,我们需要准备...

    详解从 0 开始使用 Docker 快速搭建 Hadoop 集群环境

    Linux Info: Ubuntu 16.10 x64 Docker 本身就是基于 Linux 的,所以首先以我的一台服务器做实验。虽然最后跑 wordcount 已经由于内存不足而崩掉,但是之前的过程还是可以参考的。 连接服务器 使用 ssh 命令连接远程...

    HADOOP快速入门及搭建集群环境

    YARN是HADOOP的资源管理器,负责管理HADOOP集群中计算资源的分配。 1.2 HADOOP产生背景 HADOOP的产生背景是大数据时代的到来,随着数据量的急剧增长,传统的数据处理方式无法满足需求,HADOOP的出现解决了这个问题...

    Hadoop集群架构搭建分析

    Hadoop 集群架构搭建分析是指设计和搭建一个高效、可靠、可扩展的 Hadoop 集群环境,以满足大数据处理和分析的需求。本文将从概述、环境准备、环境搭建三个方面对 Hadoop 集群架构搭建进行分析。 一、概述 Hadoop ...

    基于centos的大数据hadoop集群搭建说明文档

    【标题】:基于CentOS的大数据Hadoop集群搭建详解 【描述】:本教程专为初学者设计,详细阐述了如何手动搭建Hadoop集群,步骤详尽,易于理解。 【标签】:Hadoop集群搭建 【正文】: Hadoop是一个开源的分布式...

    hadoop环境搭建,机器部署以及 Linux 常用命令操作指南

    本指南将指导用户从头开始搭建 Hadoop 环境,包括虚拟机环境的准备、Linux 基础知识、shell 增强大数据集群环境准备、ZooKeeper 介绍及集群操作网络编程等方面的内容。 虚拟机环境准备 虚拟机环境准备是搭建 ...

    hadoop集群搭建(超级详细)

    在大数据领域,Hadoop是一个广泛使用的开源框架,用于存储和处理海量数据。本文将详细讲解如何搭建一个...这个超详细的教程覆盖了从零开始到集群搭建完成的全过程,按照步骤执行,可以轻松掌握Hadoop集群搭建技术。

    hadoop开发环境搭建

    在Eclipse中,可以通过以下步骤建立与Hadoop集群的连接: 1. **打开Map/Reduce Locations**:在Eclipse下方窗口找到“Map/Reduce Locations”。 2. **新建Hadoop Location**:在空白区域右键单击,选择“New Hadoop...

    3.基于hadoop集群搭建hbase

    ### 基于Hadoop集群搭建HBase集群详解 #### 一、引言 随着大数据技术的迅猛发展,海量数据的高效存储与处理成为企业关注的重点。Hadoop作为一款能够处理大量数据的基础框架,被广泛应用于各类场景之中。然而,在...

    Hadoop的安装、配置过程和集群运行截图。

    全程跟着安装配置的一般不会出现问题,jdk版本尽量选择和Hadoop版本相容的,Hadoop版本可以选择较低版本,2.7版本较为稳定,Linux系统版本没有多大要求,一般将Hadoop和jdk版本选择好就行,这个作业较为简单,在安装...

    Hadoop集群环境虚拟机上搭建详解

    根据提供的文件信息,下面将详细介绍在虚拟机上搭建Hadoop集群环境的相关知识点。 1. 安装虚拟机和操作系统 首先,需要安装虚拟机软件,例如文档中提到的VMware Workstation,它是一款流行的虚拟化软件,可以安装在...

    大数据教程之搭建Hadoop集群.zip_大数据环境搭建hadoop

    综上所述,这个压缩包提供了全面的Hadoop集群搭建教程,涵盖了从基础环境准备、服务器配置、Hadoop安装、SSH和FTP服务的设置,到集群管理和维护等多个环节。对于想要学习和实践Hadoop大数据处理的人来说,这是一个...

Global site tag (gtag.js) - Google Analytics