概述:分布式核心思想是人多力量大,众人拾材火焰高;把众多计算机集中起来进行任务处理,其存储和运算能力就提高了,可以并行运算,但是众多PC维护管理也是一个问题,所谓众口难调,这就是鱼和熊掌不可兼得的道理,只能两害相侵,取其轻,来进行利益最大化处理。
本次实验使用三台虚拟机:master,node1,node2,其中master作为namenode,senondNameNode,以及JobTracker,另外两个几点作为dataNode和taskTracker,具体搭建过程如下:
1、配置host文件(或者使用DNS服务器)
本次实验使用三台虚拟机:master,node1,node2,其中master作为namenode,senondNameNode,以及JobTracker,另外两个几点作为dataNode和taskTracker,具体搭建过程如下:
1、配置host文件(或者使用DNS服务器)
修改/etc/hosts文件
IP地址 主机名
[root@bogon ~]# vi /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
192.168.1.106 node1
192.168.1.107 master
192.168.1.110 node2
[root@bogon ~]# scp /etc/hosts master:/etc/hosts
The authenticity of host 'master (192.168.1.107)' can't be established.
RSA key fingerprint is 42:d9:0b:a6:15:c2:23:c0:2d:d4:bd:88:4b:c5:dd:ff.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'master,192.168.1.107' (RSA) to the list of known hosts.
hosts 100% 252 0.3KB/s 00:00
[root@bogon ~]# scp /etc/hosts node2:/etc/hosts
2、建立hadoop运行账号
配置运行hadoop的专用用户,当然使用超级用户root也不违法乱纪
3、配置ssh免密码接入
每个节点都产生公钥和私钥,拷贝公钥到authorized_keys中
公钥分发传递:然后把各个节点的公钥都拷贝到authorized_keys文件中
生成秘钥到root目录
ssh-keygen -t rsa
公钥文件放入authorized_keys
cd .ssh/
cp id_rsa.pub authorized_keys
4、安装JDK
[root@bogon bin]# vi ~/.bash_profile
JAVA_HOME=/usr/java/jdk1.7.0_67
PATH=$PATH:$HOME/bin:$JAVA_HOME/bin
export PATH JAVA_HOME
验证:
[root@bogon bin]# ssh node1
Last login: Tue Dec 8 11:22:14 2015 from 192.168.1.103
[root@node1 ~]# source .bash_profile
[root@node1 ~]# echo $JAVA_HOME
/usr/java/jdk1.7.0_67
[root@node1 ~]# jps
==========================================================
5、下载并且解压hadoop安装包
1)解压,配置hadoop环境变量bin
HADOOP_HOME
PATH: HADOOP_HOME/bin
6、配置文件修改
【hadoop-env.sh】
JAVA_HOME
【core-site.xml】
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop_data</value>
</property>
</configuration>
【hdfs-site.xml】
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.permissions</name>
<value>flase</value>
</property>
</configuration>
【mapred-site.xml】
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>http://master:9001</value>
</property>
</configuration>
7、配置master和slaves文件
masters配置主节点
slaves配置从节点
[root@node2 conf]# cat masters
master
[root@node2 conf]# cat slaves
node1
node2
8、向各个节点复制hadoop
[root@master ~]# scp .bash_profile node1:~/
[root@master ~]# scp .bash_profile node2:~/
[root@node2 opt]#scp -r hadoop node1:/opt
[root@node2 opt]#scp -r hadoop master:/opt
==========================================================
9、格式化namenode
仅仅格式化master节点
hadoop namenode -format
[root@master ~]# hadoop namenode -format
Warning: $HADOOP_HOME is deprecated.
15/12/08 12:41:19 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = master/192.168.1.107
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 1.1.2
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1 -r 1440782; compiled by 'hortonfo' on Thu Jan 31 02:03:24 UTC 2013
************************************************************/
15/12/08 12:41:25 INFO util.GSet: VM type = 64-bit
15/12/08 12:41:25 INFO util.GSet: 2% max memory = 19.33375 MB
15/12/08 12:41:25 INFO util.GSet: capacity = 2^21 = 2097152 entries
15/12/08 12:41:25 INFO util.GSet: recommended=2097152, actual=2097152
15/12/08 12:41:29 INFO namenode.FSNamesystem: fsOwner=root
15/12/08 12:41:29 INFO namenode.FSNamesystem: supergroup=supergroup
15/12/08 12:41:29 INFO namenode.FSNamesystem: isPermissionEnabled=true
15/12/08 12:41:29 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100
15/12/08 12:41:29 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)
15/12/08 12:41:29 INFO namenode.NameNode: Caching file names occuring more than 10 times
15/12/08 12:41:33 INFO common.Storage: Image file of size 110 saved in 0 seconds.
15/12/08 12:41:33 INFO namenode.FSEditLog: closing edit log: position=4, editlog=/opt/hadoop_data/dfs/name/current/edits
15/12/08 12:41:33 INFO namenode.FSEditLog: close success: truncate to 4, editlog=/opt/hadoop_data/dfs/name/current/edits
15/12/08 12:41:34 INFO common.Storage: Storage directory /opt/hadoop_data/dfs/name has been successfully formatted.
15/12/08 12:41:34 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at master/192.168.1.107
************************************************************/
10、启动hadoop
在master节点进行启动,master是火车头,统领武林
start-all.sh
[root@master ~]# start-all.sh
Warning: $HADOOP_HOME is deprecated.
starting namenode, logging to /opt/hadoop/libexec/../logs/hadoop-root-namenode-master.out
node2: starting datanode, logging to /opt/hadoop/libexec/../logs/hadoop-root-datanode-node2.out
node1: starting datanode, logging to /opt/hadoop/libexec/../logs/hadoop-root-datanode-node1.out
The authenticity of host 'master (192.168.1.107)' can't be established.
RSA key fingerprint is 42:d9:0b:a6:15:c2:23:c0:2d:d4:bd:88:4b:c5:dd:ff.
Are you sure you want to continue connecting (yes/no)? yes
master: Warning: Permanently added 'master,192.168.1.107' (RSA) to the list of known hosts.
master: starting secondarynamenode, logging to /opt/hadoop/libexec/../logs/hadoop-root-secondarynamenode-master.out
starting jobtracker, logging to /opt/hadoop/libexec/../logs/hadoop-root-jobtracker-master.out
node2: starting tasktracker, logging to /opt/hadoop/libexec/../logs/hadoop-root-tasktracker-node2.out
node1: starting tasktracker, logging to /opt/hadoop/libexec/../logs/hadoop-root-tasktracker-node1.out
11、验证进程
使用jps验证各个后台进程是否启动成功
[root@master ~]# jps
3614 NameNode
3763 SecondaryNameNode
3916 Jps
3837 JobTracker
[root@node1 ~]# jps
3513 Jps
[root@node1 ~]# jps
3626 TaskTracker
3555 DataNode
3667 Jps
[root@node2 ~]# jps
3573 DataNode
3627 TaskTracker
3698 Jps
[root@node2 ~]#
[root@master bin]# hadoop dfsadmin -report
Warning: $HADOOP_HOME is deprecated.
Configured Capacity: 36889264128 (34.36 GB)
Present Capacity: 28400594944 (26.45 GB)
DFS Remaining: 28400537600 (26.45 GB)
DFS Used: 57344 (56 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 2 (2 total, 0 dead)
Name: 192.168.1.106:50010
Decommission Status : Normal
Configured Capacity: 18444632064 (17.18 GB)
DFS Used: 28672 (28 KB)
Non DFS Used: 4213334016 (3.92 GB)
DFS Remaining: 14231269376(13.25 GB)
DFS Used%: 0%
DFS Remaining%: 77.16%
Last contact: Tue Dec 08 12:58:40 PST 2015
Name: 192.168.1.110:50010
Decommission Status : Normal
Configured Capacity: 18444632064 (17.18 GB)
DFS Used: 28672 (28 KB)
Non DFS Used: 4275335168 (3.98 GB)
DFS Remaining: 14169268224(13.2 GB)
DFS Used%: 0%
DFS Remaining%: 76.82%
Last contact: Tue Dec 08 12:58:39 PST 2015
启动停止
[root@master bin]# stop-all.sh
Warning: $HADOOP_HOME is deprecated.
no jobtracker to stop
node1: no tasktracker to stop
node2: no tasktracker to stop
stopping namenode
node2: stopping datanode
node1: stopping datanode
master: stopping secondarynamenode
相关推荐
Hadoop完全分布式环境搭建文档,绝对原创,并且本人亲自验证并使用,图文并茂详细介绍了hadoop完全分布式环境搭建所有步骤,条例格式清楚,不能成功的,请给我留言!将给与在线支持!
#### 一、配置hadoop分布式文件系统环境搭建 ##### 1. 准备 在开始搭建Hadoop分布式文件系统之前,首先需要确保环境准备妥当。具体步骤包括: - **检查端口占用情况**:通过`netstat -apn | grep 9083`命令检查...
hadoop分布式环境搭建的完整详细的实验报告,基于Hadoop的伪分布式安装,3个节点的分布式集群的安装和配置说明。很详细,值得借鉴
### Hadoop完全分布式环境搭建详解 #### 一、前言 在大数据处理领域,Hadoop是一种广泛使用的开源框架,主要用于存储和处理大规模数据集。它包括HDFS(Hadoop Distributed File System)和MapReduce等核心组件。...
(85条消息) Hadoop分布式集群搭建(完整版)_卡布达暴龙兽的博客-CSDN博客_hadoop分布式集群搭建.htm
Hadoop分布式集群搭建的...总结来说,Hadoop分布式集群的搭建是一个涉及到硬件环境、软件安装、网络配置、系统参数调优等多方面知识的综合过程。搭建完成后,应该进行充分的测试以确保集群的稳定性和性能表现符合预期。
### Hadoop分布式环境搭建知识点详解 #### 一、概述 Hadoop是一款开源的大数据处理框架,主要用于处理海量数据。本文档详细介绍了如何在一个一主两从的架构中部署Hadoop集群,包括设置DNS、SSH免密码登录、安装JDK...
实验3—Hadoop 完全分布式模式搭建
hadoop、分布式环境、完全分布式、大数据、搭建
Hadoop 分布式集群搭建.md
CentOS7安装和基础环境配置:Hadoop分布式搭建前期准备工作 CentOS7是 Linux 操作系统的发行版本之一,广泛应用于服务器和超级计算机领域。Hadoop是一个基于分布式计算的开源框架,广泛应用于大数据处理和分析领域...
搭建Hadoop分布式集群前需要准备相应的环境。环境准备包括硬件选择(至少需要3台服务器,可以是物理机或虚拟机)以及操作系统的选择,这里采用的是CentOS Linux release 7.5.1804(Core)64位版本。 3. JDK安装: ...
Hadoop分布式环境搭建过程 Hadoop分布式环境搭建过程是指将Hadoop安装和配置在多台机器上,以便形成一个高效的分布式计算环境。以下是Hadoop分布式环境搭建过程的详细步骤: 一、Java安装与环境配置 Hadoop是基于...
首先,搭建Hadoop分布式集群需要准备合适的系统环境。在这个案例中,我们采用的是CentOS7 64位操作系统,搭配Hadoop 2.7.2版本,以及JDK1.8 64位。系统中包含两个节点:主节点(Master)和从节点(Slave),它们的IP...
【实验名称】基于华为云的Hadoop分布式系统搭建1 【实验目的】 1. 学习和理解华为云平台的基本操作和资源管理,包括如何在华为云控制台上创建和管理弹性云服务器。 2. 掌握分布式文件系统HDFS(Hadoop Distributed...
通过上述步骤,您应该能够在Windows环境下成功搭建起一个基本的Hadoop分布式集群,并具备运行简单示例的能力。这不仅有助于理解Hadoop的工作原理,还能够为进一步深入学习和应用Hadoop打下坚实的基础。
hadoop分布式搭建 hadoop分布式搭建是指将hadoop安装到多台机器上,并将其连接起来,形成一个分布式集群,以提高数据处理的速度和可靠性。以下是hadoop分布式搭建的详细步骤: 1、配置动态网络 在hadoop分布式...
总结一下,本资源包提供了搭建Hadoop分布式集群所需的两个基础组件:JDK 8和Hadoop 2.7.5。在实际操作中,你需要在每个节点上安装JDK,配置Hadoop环境,调整相关配置文件以适应你的集群需求,最后启动服务,确保集群...
hadoop分布式集群环境搭建参考文档