介绍了Hadoop基于单机模式下的伪分布式的部署,那么今天我们来看下Hadoop完全分布式的部署,其实只要伪分布式部署的会了,那么完全分布式的相对来说就很简单了,只要我们在一台机器上部署好,然后远程拷贝给其他的子节点就可以了。
散仙用的是Centos6.4的版本,hadoop1.2.1的版本,其他的一些linux系统都是大同小异,关于SSH的配置及一些准备工作,在这里就不多说了,不会的可以参照散仙的上两篇博客进行配置
下面进入正题,散仙总共使用3个节点来部署完全分布式集群,下面是机器的ip地址,以及机器名
IP地址 | 节点名 | 10.2.143.5 | Master | 10.2.143.36 | Slave | 10.2.143.37 | Slave2 |
我们只在Master节点上配置,然后拷贝给其他节点,下面是master的详细配置。
1,首先,我们需要配置的是在conf文件夹下找到hadood-env.sh这个文件,然后使用命令vi hadood-env.sh编辑此文件并取消注释的JAVA HOME,然后配上我们自己的的JDK路径,截图如下
,
2,第二我们需要配置的是conf下的core.site.xml这个文件
,添加
<property>
<name>fs.default.name</name>
<value>hdfs://10.2.143.5:9000</value>
</property>
截图如下:
3,第三我们需要配置的是hdfs.site.xml这个文件,因为散仙机器的有2个Slave,所以
节点数写2就可以了,注意默认是3
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
截图如下
4,第四我们需要配置conf下的mapred-site.xml文件
<property>
<name>mapred.job.tracker</name>
<value>10.2.143.5:9001</value>
</property>
截图如下:
5,第五我们需要配置conf下的master文件,直接把主节点的IP,加入其中即可,截图如下:
6,第六我们需要配置conf下的slave文件,直接把子节点的IP,加入其中即可,截图如下:
配置完成之后,我们在主节点上,执行bin/hadoop namenode -format 进行格式化,格式化完毕之后,就可以通过scp进行远程拷贝到子节点了,截图如下:
然后就可以在master节点上,执行启动命令了,
bin/start-all.sh,启动成功之后,可以使用jps命令在各个节点上,查看端口情况。
截图如下:
最后,我们执行service iptables stop命令关闭,各个节点上的防火墙,就可以在Win下访问50030,以及50070端口查看web页面了,截图如下:
注意一点,如果这个Browse the filesystem这个链接不能正常使用,截图如下
需要配置在win上的C:\Windows\System32\drivers\etc下面的hosts文件,linux则不需要,添加内容和linux上的master节点的hosts文件的内容一致即可,截图如下:
然后,我们就可以打开此链接了,截图如下:
至此,我们的完全分布式集群部署,已经搭建完毕,停掉集群的命令是bin/stop-all.sh。我们可以上传几个文件做个测试,散仙的配置默认会有2个副本,在这里就不给出具体的操作了,后面的博客,会介绍一下管理操作hadoop的几种shell。写了这么长,配了这么多图,其实只要操作熟练,5分钟之内,就可以搭建完毕,当然前提是我们环境搭建已经很熟练了。
相关推荐
### Zookeeper单节点安装与集群部署详解 ...通过以上步骤,我们可以完成ZooKeeper的单节点安装、伪分布式集群安装以及完全分布式集群安装。这些步骤不仅适用于学习目的,也为实际生产环境中的部署提供了指导。
HBase 完全分布式集群搭建 HBase 是一个基于 Hadoop 的分布式 Nosql 数据库,可以提供高性能、可靠的数据存储和查询服务。为了搭建一个完全分布式的 HBase 集群,我们需要了解 HBase 的架构、组件和配置。 一、...
### Spark Standalone 分布式集群搭建详解 #### Spark Standalone 运行模式概述 Spark Standalone 是 Apache Spark 提供的一种自带的集群管理模式,主要用于管理 Spark 应用程序的执行环境。这种模式简单易用,适合...
**使用步骤(以完全分布式集群为例)** 1. **环境准备**:确保使用的是CentOS7以上系统,并准备两台主机,分别为master和slave,以及相应的Java RPM包和Hadoop安装包。 2. **拷贝文件**:将Shell脚本、Java安装包和...
【Hadoop 安装部署完全分布式】 在搭建Hadoop完全分布式集群时,我们需要遵循一系列步骤,确保所有组件正确配置并协同工作。以下是基于三台机器的集群安装部署过程的详细说明: 1. **所需软件及版本** - Hadoop: ...
本文将详细介绍如何搭建一个Hadoop HA高可用性的完全分布式集群,并提供关键步骤和注意事项。 #### Hadoop HA概述 Hadoop HA主要是指NameNode的高可用性实现方案。在传统的Hadoop架构中,NameNode是整个HDFS...
总结来说,搭建一个完全分布式的Hadoop集群需要对Linux、Java和Hadoop的原理有深入的理解。这是一个涉及多步骤的过程,每一步都需要谨慎操作。通过这样的集群,企业可以处理PB级别的数据,实现高效的数据分析和挖掘...
本篇将详细介绍如何部署一个完全分布式的Hadoop集群,这是一个广泛应用于大数据处理的框架。 首先,我们需要进行**前期准备**。确保所有参与集群的主机都完成了以下步骤: 1. **操作系统**:安装并配置好Ubuntu ...
本文旨在详细介绍如何使用VMware Workstation(简称VM)结合CentOS 6.5操作系统来搭建Hadoop 2.7的完全分布式集群。此文档是根据作者的实际经验总结而成,主要面向那些希望深入了解并掌握Hadoop集群部署的技术人员或...
由于篇幅限制,无法涵盖Hadoop安装过程中可能遇到的所有问题和细节,但上述知识点涵盖了一个基础的、完整的Hadoop 2.x版本完全分布式安装与部署流程。对于初学者而言,跟随这个流程一步步操作,可以较为顺利地搭建起...
通过上述步骤, 我们可以成功地在 Ubuntu 14.04.3 上搭建出一个由 Cloudera Manager 管理的 CDH 完全分布式集群。整个过程中需要注意的是, 每个步骤都需要仔细操作, 确保每个环节的设置正确无误, 从而避免后续运行...
本文档旨在介绍如何在Linux环境下,利用三台虚拟机(一台主机两台从机)构建一个完全分布式的Hadoop集群。通过详细的步骤指导,帮助读者掌握Hadoop集群的搭建过程。 #### 实验环境配置 **集群节点详情**: - 主机...
### Hadoop完全分布式部署知识点详解 #### 一、概述 Hadoop是一款开源的大数据处理框架,主要用于处理海量数据。在本文档中,我们将详细介绍如何在三台物理机上完成Hadoop完全分布式的部署,并整合Hive,使得数据...
在搭建Hadoop伪分布式集群的过程中,首先需要在Linux环境下配置VMware的NAT网络,确保虚拟机能够稳定地运行和通信。...然而,在生产环境中,通常会部署完全分布式集群,以实现更大规模的数据处理能力。
在IT行业中,Hadoop是一个广泛使用的开源框架,主要...在实际生产环境中,为了实现更高的可用性和容错性,通常会搭建多节点的完全分布式集群。但作为初学者,伪分布式环境足以满足学习需求,并且可以有效降低入门门槛。
Hadoop的安装分为单机方式、伪分布式方式和完全分布式方式。 a. 单机模式是Hadoop的默认模式。当首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环境,便保守地选择了最小配置。在这种默认模式下所有3个XML文件...
文章目录Hadoop完全分布式集群搭建一、新建虚拟机二、规划集群与服务1、逻辑结构2、物理结构3、总结构三、配置集群1、主节点基础网络配置1.1、配置固定ip地址1.2、修改主机名1.3、配置dns1.4、配置 ip 地址和主机名...
在Standalone模式下,Spark可以独立于任何分布式资源管理系统运行,形成一个自包含的集群。以下是安装部署Spark Standalone模式的详细步骤和相关知识点。 **一、实验描述与环境** 1. 实验描述:本实验旨在搭建一个...
在完全分布式模式下,Hadoop集群由多台机器组成,每个服务都运行在不同的节点上,实现大规模的数据处理能力。配置完全分布式涉及的文件与伪分布模式类似,但需要更多的系统规划和网络配置,例如,确保节点间通信的`...
这种方式便于开发和测试,因为你可以检查内存使用、HDFS 输入输出,同时具备类似完全分布式模式的功能。 要搭建伪分布式集群,首先需要满足一定的前提条件,例如安装 JDK 并配置环境变量。接着,你需要下载并解压 ...