配置3台主机hadoop小集群:
将之前配置好的伪分布式的ubuntu虚拟机克隆多两份,一共三份
因为3台机的配置是一样的,所以可以省去很多的安装,jdk,ssh,hadoop的安装
为这3台机分配角色:
ubuntu1 172.19.43.178 master,namenode,jobtracker-master
ubuntu2 172.19.43.114 slave1,datanode,tasktracker-slave1
ubuntu3 172,19.43.98 slave2,datanode,tasktracker-slave2
在3台主机上分别设置/ect/hosts及/etc/hostname
/etc/hosts
127.0.0.1
172.19.43.178 master
172.19.43.114 slave1
172.19.43.98 slave2
/etc/hostname
主机名 master/slave1/slave2
因为这3台机都是一样的配置,所以ssh的配置密钥都是一样的,就没有做特别的操作,不然的话就要将master的文件复制到两个slave上
#scp authorized_keys slave1:~/.ssh/
#scp authorized_keys slave2:~/.ssh/
现在试试看可不可以从master免密码登录slave,都登录成功啦。
#ssh slave1
#ssh slave2
重新配置 core-site.xml ,hdfs-site.xml, mapred-site.xml 这3个文件及masters, slaves 这两个文件
3个主机的masters ,slaves 都配置成如下:
分别重新格式化3台机的hdfs,
#bin/hadoop namenode -format
在master主机上启动hadoop
#bin/start-all.sh
在master上启动服务后,其他slave的也会跟着启动。
查看启动是否成功
补充点教材上的排错知识:
如果大家在安装的时候遇到问题,或者按步骤安装完成却不能运行Hadoop,那么建议仔细查看日志信息。Hadoop记录了详尽的日志信息,日志文件保存在logs文件夹内。
无论是启动还是以后会经常用到的MapReduce中的每一个Job,或是HDFS等相关信息,Hadoop均存有日志文件以供分析。
例如:NameNode和DataNode的namespaceID不一致,这个错误是很多人在安装时都会遇到的。日志信息为:
java.io.IOException: Incompatible namespaceIDs in /root/tmp/dfs/data:namenode namespaceID = 1307672299; datanode namespaceID = 389959598
若HDFS一直没有启动,读者可以查询日志,并通过日志进行分析,日志提示信息显示了NameNode和DataNode的namespaceID不一致。
这个问题一般是由于两次或两次以上格式化NameNode造成的,有两种方法可以解决,第一种方法是删除DataNode的所有资料,第二种方法就是修改每个DataNode的namespaceID(位于/dfs/data/current/VERSION文件中)或修改NameNode的namespaceID(位于/dfs/name/current/VERSION文件中)。使其一致。
下面这两种方法在实际应用也可能会用到。
1)重启坏掉的DataNode或JobTracker。当Hadoop集群的某单个节点出现问题时,一般不必重启整个系统,只须重启这个节点,它会自动连入整个集群。
在坏死的节点上输入如下命令即可:
bin/Hadoop-daemon.sh start datanode
bin/Hadoop-daemon.sh start jobtracker
2)动态加入DataNode或TaskTracker。下面这条命令允许用户动态地将某个节点加入到集群中。
bin/Hadoop-daemon.sh --config ./conf start datanode
bin/Hadoop-daemon.sh --config ./conf start tasktracker
相关推荐
实验环境可以是单台具备4GB DDR3内存的x86架构主机,运行Windows、Linux或mac OS X系统,或者至少两台内存1GB及以上的主机,使用VMware或VirtualBox作为虚拟化工具。 实验步骤详细如下: 1. **关闭防火墙**:为了...
2. **虚拟机克隆**:了解如何克隆已安装的虚拟机,以便快速创建多台相同配置的服务器,这对于构建Hadoop集群至关重要。 3. **Linux基本命令**:熟练使用Linux命令行,包括文件操作、用户管理、网络配置等,这是在...
析归纳腾讯课堂VMware教师:现场演示学生:观看演示并记录实战训练(1) 搭建 Hadoop 完全分布式集群。动手实践腾讯课堂VMware学生:动手实践,解决问题课堂总结(1) 评估讨论的成效(2) 评价实践操作的速度与准确性(3) ...
本文档提供了一个详细的脚本,涵盖了从Java环境配置到Hadoop集群的完全分布式安装的所有步骤,旨在降低大数据技术入门的复杂度和时间成本。 **脚本功能** 1. **Java环境一键配置**:自动安装Java运行环境,确保...
### CentOS下Hadoop+Hbase+ZooKeeper分布式存储部署详解 #### 一、前言与背景 Hadoop是Apache基金会旗下的一个开源分布式计算框架,它最初由Doug Cutting及其团队开发,旨在处理大规模数据集。Hadoop的核心组件...
通过本实施实战,我们将了解从硬件准备到系统安装,再到Hadoop集群的具体配置过程。 #### 二、准备工作 1. **操作系统光盘**:采用CentOS Linux 6.5 x64版本作为集群的操作系统。 2. **Hadoop软件安装包**:使用...
安装过程中要注意分配足够的内存和磁盘空间,以满足Hadoop集群的需求。 配置Linux虚拟机是关键步骤,包括: - 使用root用户登录,因为许多系统级操作需要管理员权限。 - 开启SSH服务,这是一种安全的网络协议,...
5. **Hadoop集群部署** - **分布式模式**:配置Hadoop的分布式模式,包括Master(包含NameNode和ResourceManager)和Slave节点(DataNode和NodeManager)。 - **格式化NameNode**:首次部署时,需要对NameNode进行...
2.1.7 HDFS 缓存相关配置…·……………………………………… …… ……………………………… 40 2.2 HDFS 中心缓存管理…... ... .…· ·……………………………………………………………………….. 42 2.2.l HDFS...
HDFS(Hadoop Distributed File System,Hadoop 分布式文件系统)是一种通过网络实现文件在多台主机上进行分布式存储的文件系统。分布式存储比普通存储方式节省时间。HDFS 由 NDFS 系统演变而来,主要解决海量大数据...
根据给定文件的内容部分,我们可以提炼出以下几个知识点: 1. 大数据业务处理基本流程与关键技术 ...在实际的Hadoop学习和应用中,这些知识点是非常重要的基础,有助于理解和操作Hadoop集群以及处理大数据问题。
### Hadoop部署实战知识点 ...以上内容详尽地介绍了《EasyHadoop部署实战手册》中的核心知识点,涵盖了Hadoop集群部署的各个方面,从基础环境搭建到高级配置,帮助读者全面掌握Hadoop的部署与管理技能。
### OpenStack云平台实战知识点解析 #### 一、OpenStack Dashboard **知识点1:Dashboard功能** - **认证服务**:虽然Dashboard本身不直接提供认证服务,但它与Keystone紧密集成,用户通过Dashboard登录时,实际上...
在本案例中,我们使用了三台机器来构建Hadoop集群,分别是: - **hdfs1**(192.168.0.221):作为NameNode和JobTracker。 - **hdfs2**(192.168.0.227):作为DataNode和TaskTracker。 - **hdfs3**(192.168.0.228...
总结来说,这个实验是IT从业者提升Linux技能和构建Hadoop集群的实战训练,涵盖了操作系统管理、网络配置、Java环境搭建和分布式计算平台的部署,对于理解和应用大数据技术具有重要意义。通过完成此实验,学习者不仅...
本文将详细讲解这一过程,帮助你成功构建一个高效稳定的Hadoop集群。 首先,我们需要准备至少三台虚拟机,分别用作NameNode、DataNode和Secondary NameNode。这些虚拟机应设置为NAT网络模式,并且每个虚拟机都需要...
包括安装Hadoop(因为Hbase通常建立在Hadoop之上),配置Hadoop的HDFS和YARN,然后下载Hbase的二进制包,解压并配置相关配置文件如`hbase-site.xml`,设置Hbase的Zookeeper地址、集群模式等参数。最后,启动Hbase...