准备工作
1、 Iptables
#chkconfig iptables –list
#chkconfig iptables –level 3456off
#service iptables stop
2、 Initab
3、 Ntpd
#chkconfig ntpd –list
#chkconfig ntpd –level 23456off
#service iptables start
4、 Sudo hadoop(添加hadoop用户,赋于sudo权限)
#useradd hadoop
#passwd hadoop
#vim /etc/sudoers
加入hadoop ALL=(ALL) ALL
5、 Selinux disabled
#vim /etc/selinux/config
设置SELINUX=disabled
6、 Host
#vim /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=spark04
#hostname spark04
#vim /etc/hosts 主机名最好有意义的域名,例如:www.spark01.cn
10.36.0.159database
10.36.0.158spark03
10.36.0.157spark02
10.36.0.30spark01
10.36.0.201spark04
10.36.0.202spark05
7、 ssh
#ssh-keygen
#vim authorized_keys
把每台机子上的id_rsa.pub内容拷贝到authorized_keys
Scp到其它机器上
注意:配置完上述以后最好重启,配置才能生效。网络配置请符合基本配置要求
版本
名称
|
版本号
|
Hadoop
|
hadoop-2.6.0
|
Zookeeper
|
zookeeper-3.4.6
|
Jdk
|
jdk-7u75-linux-x64
|
主机名
|
IP
|
database
|
10.36.0.159
|
Spark02
|
10.36.0.157
|
Spark03
|
10.36.0.158
|
Spark04
|
10.36.0.201
|
Spark05
|
10.36.0.202
|
角色配置(请按实际情况填写)
主机
角色
|
database(159)
|
spark02(157)
|
spark03(158)
|
spark04(201)
|
spark05(202)
|
Namenode
|
Namenode
|
Namenode
|
|
|
|
Datanode
|
|
|
Datanode
|
Datanode
|
Datanode
|
Zookeeper
|
Zookeeper
|
Zookeeper
|
Zookeeper
|
Zookeeper
|
Zookeeper
|
Journalnode
|
Journalnode
|
Journalnode
|
Journalnode
|
|
|
zkfc
|
zkfc
|
zkfc
|
|
|
|
Resourcemanager
|
Resourcemanager
|
Resourcemanager
|
|
|
|
Nodemanager
|
|
|
Nodemanager
|
Nodemanager
|
Nodemanager
|
Ha角色(请按实际情况填写)
角色名
|
主机名
|
NameNode
|
Database , spark02
|
ResourceManager
|
Database , spark02
|
访问地址(请按实际情况填写)
角色
|
访问地址
|
Namenode
|
http://database:50070 || http://spark02:50070
|
ResourceManager
|
http://database:8088 || http://spark02:8088
|
注:本地需要配置host(C:\Windows\System32\drivers\etc)
分享到:
相关推荐
2.1 hadoop大数据平台安装前准备工作
一、云平台部署前环境准备 二、Hadoop集群部署 三、Hbase集群部署 四、云平台整体启动测试
下面是在Linux平台下安装Hadoop的过程: 1. 创建安装目录:mkdir /opt/hadoop 2. 更改所属关系和权限:chown root ./; chmod 755 ./ 3. 下载项目包:wget ...
1. 虚拟机配置:搭建Hadoop平台前,通常需要在虚拟机上进行操作,这样做的好处是可以在隔离的环境中测试而不影响物理机的正常工作。虚拟机软件如VMware用于创建多个虚拟机实例,每个实例代表Hadoop集群中的一个节点...
Hadoop平台搭建一般包括几个关键步骤,如环境准备、软件安装、集群配置和启动等。搭建Hadoop集群通常需要至少三个节点:一个主节点(NameNode)和多个从节点(DataNode)。 4. 环境要求: 搭建Hadoop集群需要准备...
【Hadoop平台安装部署手册】 在大数据处理领域,Apache Hadoop是一个至关重要的开源框架,它提供了分布式文件系统和计算模型,使得大规模数据处理成为可能。本手册详细介绍了在Hadoop平台上进行安装和部署的步骤,...
Hadoop是一种能够处理大量数据的大规模分布式存储与计算框架,常用于构建大数据分析平台。本文档基于一位用户的实践经历,详细介绍了如何在虚拟机环境下安装和配置Hadoop的过程。该文档不仅适用于初学者了解Hadoop的...
在开始安装之前,我们需要准备三台服务器(假设为hadoop1、hadoop2、hadoop3),并且确保每台服务器之间能够通过SSH无密码登录。此外,还需要下载JDK与Hadoop的相关软件包。 #### 三、步骤详解 ##### 1. 编辑Hosts...
通过这些文档,用户可以逐步学习并掌握Hadoop的安装和管理,从而构建起自己的大数据处理平台。记住,实践是检验真理的唯一标准,只有亲自动手操作,才能真正理解和掌握Hadoop集群的安装与运维。
### Hadoop平台安装学习笔记知识点总结 #### 一、硬件与软件环境准备 - **硬件需求**:至少需要三个节点,这些节点可以是物理服务器或者是虚拟机。虚拟化方案推荐使用VMware ESXi来创建虚拟服务器,并通过VMware ...
单机Hadoop配置安装是Hadoop beginners的不二之选,本篇文章将详细指导您如何在Windows平台上安装和配置Hadoop-2.5.2。通过亲自实验和实践,本教程将带您掌握单机Hadoop配置安装的所有步骤。 Hadoop介绍 Hadoop是...
在搭建平台前,需要安装Java环境,因为Spark和Hadoop都依赖于Java运行。同时,Scala是Spark的主要开发语言,也需要预先安装Scala环境。ZooKeeper作为协调服务,用于集群中的节点注册和通信。 3. **配置环境变量**...
### Hadoop 安装与配置详解 #### 一、概述 Hadoop 是一个能够对大量数据进行分布式处理的软件框架,常用于构建大数据处理平台。本文将详细介绍如何在 Linux 系统下安装 Hadoop,并逐步指导您完成从单机模式到伪...
#### 一、Hadoop2.2.0完全分布式集群平台安装设置概述 在深入探讨Hadoop2.2.0的安装过程之前,我们需要了解Hadoop的基本架构以及其核心组件——HDFS(Hadoop Distributed File System)。Hadoop是一个开源框架,...
#### 三、Hadoop集群安装前准备 在安装Hadoop集群之前,需要做好充分的准备工作: 1. **硬件准备**: - 至少两台服务器,推荐配置更高,具体根据实际需求调整。 - 每台服务器至少配备足够的CPU和内存资源,以及...
Hadoop是一个开源的分布式存储和计算框架,它由Apache软件基金会支持,并允许使用简单的编程模型来跨计算机...通过本指南的学习,可以掌握Hadoop 2.0在Linux平台上的安装部署方法,为后续的大数据处理打下坚实的基础。
Hadoop是一个开源的、可运行与Linux集群上的分布式计算平台,用户可借助Hadoop存有基础环境的配置(虚拟机安装、Linux安装等),Hadoop集群搭建,配置和测试。 一、虚拟机的安装 VMware (Virtual Machine...