完成 “虚拟机中四台Ubuntu安装配置Hadoop(上)”中的配置后,就可以进行下面的操作了。
1. 下载安装 hadoop
下载当前稳定版本,1.0.4版本
放到 NameNode01虚拟机的 /home/hadoop目录下
运行解压命令:
tar -zxvf hadoop-1.0.4.tar.gz
为了便于操作,将解压后的hadoop-1.0.4 重命名成 hadoop104
mv hadoop-1.0.4 hadoop104
2. 配置hadoop
进入 hadoop104目录下,进行下面的配置
(1) 编辑/home/hadoop/hadoop104/conf 目录下的hadoop-env.sh 文件,
sudo gedit hadoop-env.sh
添加java环境变量
export JAVA_HOME=/opt/jdk1.6.0_37
(2)编辑/home/hadoop/hadoop104/conf 目录下的slaves文件
sudo gedit slaves
该文件用来指定所有的DataNode,一行指定一个主机名。即本文中的DataNode01、NN02、DN02, 所以slaves的内容应该如下:
DataNode01 NN02 DN02
(3)修改/home/hadoop/hadoop104/conf 目录下的masters文件,
打开masters文件,该文件用来指定备份节点Secondarynamenode,生产上环境部署一般不会将namenode和Secondarynamenode同时部署在一台服务器上,内容如下:
NN02
(4) 修改/home/hadoop/hadoop104/conf 目录下的core-site.xml文件,core-site.xml是hadoop核心的配置文件,在该文件中配置hdfs的地址和端口,core-site.xml的添加如下内容:
<property> <name>fs.default.name</name> <value>hdfs://hadoop1:9000</value> </property>
(5)将/home/hadoop/hadoop104/src/hdfs/hdfs-default.xml文件复制到/home/hadoop/hadoop104/conf目录下,并改名且覆盖原hdfs-site.xml文件
cp /home/hadoop/hadoop104/src/hdfs/hdfs-default.xml /home/hadoop/hadoop104/conf/hdfs-site.xml
配置文件中的dfs.name.dir目录,默认是在/tmp目录下,linux系统重启时可能会造成临时目录的文件丢失,
所以可以做如下两处修改:
<property> <name>dfs.name.dir</name> <value>${hadoop.tmp.dir}/dfs/name</value> <description>Determines where on the local filesystem the DFS name node should store the name table(fsimage). If this is a comma-delimited list of directories then the name table is replicated in all of the directories, for redundancy. </description> </property>
修改为:
<property> <name>dfs.name.dir</name> <value>/hadoopdata/dfs/name</value> <description>Determines where on the local filesystem the DFS name node should store the name table(fsimage). If this is a comma-delimited list of directories then the name table is replicated in all of the directories, for redundancy. </description> </property>
还有:
<property> <name>dfs.data.dir</name> <value>${hadoop.tmp.dir}/dfs/data</value> <description>Determines where on the local filesystem an DFS data node should store its blocks. If this is a comma-delimited list of directories, then data will be stored in all named directories, typically on different devices. Directories that do not exist are ignored. </description> </property>
修改为:
<property> <name>dfs.data.dir</name> <value>/hadoopdata/dfs/data</value> <description>Determines where on the local filesystem an DFS data node should store its blocks. If this is a comma-delimited list of directories, then data will be stored in all named directories, typically on different devices. Directories that do not exist are ignored. </description> </property>
注1:因为修改成了/hadoopdata/dfs/name 目录,所以需要先建立一下该目录才可使用,可通过下面的命令,分别在四台虚拟机上创建对应目录
sudo mkdir /hadoopdata (创建/hadoopdata目录)
sudo chown hadoop /hadoopdata/ (修改/hadoopdata目录的所属人,使得hadoop用户可以修改)
mkdir /hadoopdata/dfs (创建/hadoopdata/dfs目录)
mkdir /hadoopdata/dfs/name (创建/hadoopdata/dfs/name目录)
四台虚拟机上都分别进行上面操作.
注2: 另外还有,在配置文件中dfs.replication的值,hadoop默认设置为3(文件块备份份数),因为在本文中使用的也是3个数据节点,所有不用修改了。(6)修改mapred-site.xml
mapred-site.xml是mapreduce的配置文件,配置的是jobtracker的地址和端口
<configuration> <property> <name>mapred.job.tracker</name> <value>NameNode1:9001</value> </property> </configuration>
(7) 将hadoop部署到其他机器上,保证目录结构一致
scp -r /home/hadoop/hadoop104 DataNode01:/home/hadoop scp -r /home/hadoop/hadoop104 NN02:/home/hadoop scp -r /home/hadoop/hadoop104 DN02:/home/hadoop
等全部传送完毕后,hadoop部署配置算是基本完成
(8)在启动hadoop之前,需要先格式化namenode,先进入hadoop的安装目录,即 /home/hadoop/hadoop104/ 执行下面的命令:
bin/hadoop namenode -format
看到类似下面的结果表明格式完毕:
输出结果如下: 13/02/21 22:10:00 INFO util.GSet: VM type = 64-bit 13/02/21 22:10:00 INFO util.GSet: 2% max memory = 19.33375 MB 13/02/21 22:10:00 INFO util.GSet: capacity = 2^21 = 2097152 entries 13/02/21 22:10:00 INFO util.GSet: recommended=2097152, actual=2097152 13/02/21 22:10:01 INFO namenode.FSNamesystem: fsOwner=hadoop 13/02/21 22:10:01 INFO namenode.FSNamesystem: supergroup=supergroup 13/02/21 22:10:01 INFO namenode.FSNamesystem: isPermissionEnabled=true 13/02/21 22:10:01 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100 13/02/21 22:10:01 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s) 13/02/21 22:10:01 INFO namenode.NameNode: Caching file names occuring more than 10 times 13/02/21 22:10:01 INFO common.Storage: Image file of size 112 saved in 0 seconds. 13/02/21 22:10:01 INFO common.Storage: Storage directory /hadoopdata/dfs/name has been successfully formatted. 13/02/21 22:10:01 INFO namenode.NameNode: SHUTDOWN_MSG: /************************************************************ SHUTDOWN_MSG: Shutting down NameNode at NameNode01/192.168.0.111 ************************************************************/
如果前面配置没有出差错,格式化应该会成功,如果由于各种原因导致格式化失败,就去hadoop104/logs下查看日志文件,如果之前格式化过,如果不能再次格式化,可能需要删除掉 /tmp, /data目录下的文件才可以再次格式化。
3.测试
前面准备工作完成后,就可以启动hadoop了,在/home/hadoop/hadoop104/bin目录下有几种启动脚本,简要说明如下:
start-all.sh 启动所有的Hadoop守护。包括namenode, datanode, jobtracker, tasktrack
stop-all.sh 停止所有的Hadoop
start-mapred.sh 启动Map/Reduce守护。包括Jobtracker和Tasktrack
stop-mapred.sh 停止Map/Reduce守护
start-dfs.sh 启动Hadoop DFS守护.Namenode和Datanode
stop-dfs.sh 停止DFS守护
下面启动所有守护进程:
hadoop@NameNode01:~/hadoop104$ bin/start-all.sh
输出结果如下:
starting namenode, logging to /home/hadoop/hadoop104/libexec/../logs/hadoop-hadoop-namenode-NameNode01.out NN02: starting datanode, logging to /home/hadoop/hadoop104/libexec/../logs/hadoop-hadoop-datanode-NN02.out DN02: starting datanode, logging to /home/hadoop/hadoop104/libexec/../logs/hadoop-hadoop-datanode-DN02.out DataNode01: starting datanode, logging to /home/hadoop/hadoop104/libexec/../logs/hadoop-hadoop-datanode-DataNode01.out NN02: starting secondarynamenode, logging to /home/hadoop/hadoop104/libexec/../logs/hadoop-hadoop-secondarynamenode-NN02.out starting jobtracker, logging to /home/hadoop/hadoop104/libexec/../logs/hadoop-hadoop-jobtracker-NameNode01.out DataNode01: starting tasktracker, logging to /home/hadoop/hadoop104/libexec/../logs/hadoop-hadoop-tasktracker-DataNode01.out DN02: starting tasktracker, logging to /home/hadoop/hadoop104/libexec/../logs/hadoop-hadoop-tasktracker-DN02.out NN02: starting tasktracker, logging to /home/hadoop/hadoop104/libexec/../logs/hadoop-hadoop-tasktracker-NN02.out
可以从输出上看到各个节点所启动的进程,其中NameNode01自身启动了namenode一个进程,NN02包括datanode,secondarynamenode,tasktracker三个进程;DN02和DataNode01包括datanode和tasktracker两个进程。以上个Ubuntu节点的进程情况也登录到具体的Ubuntu机器,通过输入jps命令查看。
查看集群的状态执行:
bin/hadoop dfsadmin -report
显示输出如下:
Configured Capacity: 155743215616 (145.05 GB) Present Capacity: 134797897728 (125.54 GB) DFS Remaining: 134797811712 (125.54 GB) DFS Used: 86016 (84 KB) DFS Used%: 0% Under replicated blocks: 0 Blocks with corrupt replicas: 0 Missing blocks: 0 ------------------------------------------------- Datanodes available: 3 (3 total, 0 dead) Name: 192.168.0.112:50010 Decommission Status : Normal Configured Capacity: 52506136576 (48.9 GB) DFS Used: 28672 (28 KB) Non DFS Used: 6880530432 (6.41 GB) DFS Remaining: 45625577472(42.49 GB) DFS Used%: 0% DFS Remaining%: 86.9% Last contact: Thu Feb 21 23:06:57 CST 2013 Name: 192.168.0.114:50010 Decommission Status : Normal Configured Capacity: 52506136576 (48.9 GB) DFS Used: 28672 (28 KB) Non DFS Used: 6881538048 (6.41 GB) DFS Remaining: 45624569856(42.49 GB) DFS Used%: 0% DFS Remaining%: 86.89% Last contact: Thu Feb 21 23:06:57 CST 2013 Name: 192.168.0.113:50010 Decommission Status : Normal Configured Capacity: 50730942464 (47.25 GB) DFS Used: 28672 (28 KB) Non DFS Used: 7183249408 (6.69 GB) DFS Remaining: 43547664384(40.56 GB) DFS Used%: 0% DFS Remaining%: 85.84% Last contact: Thu Feb 21 23:06:57 CST 2013
还可以查看http://192.168.0.111:50070 或者 http://NameNode01:50070 通过网页查看集群状态。
若要停止hadoop,需要执行:
bin/stop-all.sh
到目前为止,hadoop初步的安装配置及运行说明完毕
相关推荐
通过本教程,您可以掌握从安装虚拟机到配置Hadoop环境的全过程。本文不仅涵盖了安装步骤,还提供了可能遇到的问题及其解决方案。 #### 安装虚拟机 1. **下载并安装VMware Workstation Pro 12**: - 下载`...
在本文中,我们将详细探讨如何在Ubuntu 10.10 (Maverick Meerkat)上通过VMware虚拟机安装并配置Hadoop集群。这个过程涵盖了从搭建虚拟环境到安装必要的软件,以及最终配置Hadoop分布式文件系统(HDFS)和MapReduce服务...
### 在Ubuntu上配置Hadoop集群的关键知识点 #### 一、任务概述 本文档旨在指导用户如何在Ubuntu系统上搭建一个分布式的Hadoop集群。通过详细的操作步骤和注意事项,确保读者能够顺利地完成集群的配置。 #### 二、...
本教程将详述如何在虚拟机上安装Ubuntu 16.04(Xenial Xerus)并配置Hadoop和Spark平台,这对于学习大数据处理和分布式计算至关重要。 首先,你需要下载必要的软件。对于虚拟机,这里推荐使用VMware,它是一款广泛...
【标题】: "VirtualBox环境下基于多台Ubuntu虚拟机的Hadoop分布式计算环境搭建" 【描述】: 本文档详细介绍了如何在VirtualBox虚拟化环境中,利用多台Ubuntu虚拟机搭建一个Hadoop分布式计算环境。整个过程包括了...
【虚拟机安装Ubuntu和Hadoop】...这个教程涵盖了在VirtualBox虚拟机中安装Ubuntu以及在Ubuntu中配置Hadoop的基本步骤,对于初学者来说是一份不错的学习资源。在实际操作中,根据具体环境和需求,可能需要进行一些调整。
###### 3.3.3 进行Hadoop集群完全分布式的安装配置 - 下载并解压Hadoop安装包。 - 配置`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`等配置文件。 - 格式化HDFS文件系统。 - 启动Hadoop集群。 #### 四、...
接下来详细介绍如何在Ubuntu 16.04上安装并配置Hadoop。 1. **下载Hadoop安装包**:访问Hadoop官方网站 (http://hadoop.apache.org/releases.html),选择Hadoop 2.6.5版本的binary文件进行下载。 2. **解压安装包**...
本文档详细介绍了如何在Ubuntu系统上搭建Hadoop2.x环境,包括创建用户、安装Java环境、配置SSH无密码登录、安装Hadoop并配置相关核心文件的过程。通过这些步骤,用户可以顺利地在自己的Ubuntu环境中运行Hadoop集群,...
为了更好地学习和实践Hadoop,我们可以使用VMware WorkStation创建两台Ubuntu虚拟机,并在其上配置Hadoop集群。下面是相关的知识点: 1. VMware WorkStation的安装和配置:VMware WorkStation是一款功能强大且流行...
【虚拟机Ubuntu+Hadoop+hive安装教程】 本教程详细阐述了如何在虚拟机Ubuntu上安装Hadoop和Hive,适合对大数据处理感兴趣的互联网技术人员。首先,我们将介绍Ubuntu的安装步骤,接着是Hadoop的安装,最后是Hive的...
1. **安装 Ubuntu 虚拟机**:首先,需要在虚拟机中安装 Ubuntu。推荐使用 Ubuntu 14.04 版本。安装过程包括创建一个新的虚拟机,并加载 Ubuntu 镜像文件进行自定义安装。安装过程中,需要配置虚拟机的启动方式和网络...
【虚拟机安装Ubuntu和Hadoop】的步骤详细解析 虚拟机软件VirtualBox是安装Ubuntu操作系统的一个常见选择。在Windows 8环境下,首先需要下载VirtualBox的安装文件,例如VirtualBox-4.3.0-89960-Win.exe,并进行安装...
ubuntu16.04 安装Hadoop大数据平台CDH 5.14.1,通过虚拟机VMware安装Ubuntu之后,安装Hadoop大数据平台,使用CDH5.14.1
在本文档中,我们将深入探讨如何在虚拟机Ubuntu 14.04上安装Hadoop 2.7和Hive。首先,我们需要了解虚拟机的配置和Ubuntu的安装过程,然后是Java开发工具(JDK)的安装,最后是Hadoop和Hive的安装步骤。 1. **Ubuntu...
### Ubuntu11.10下安装Hadoop0.20.2(单机伪分布式) #### 一、安装虚拟机VMware Workstation v7.1.4 在开始Hadoop的安装之前,首先需要在宿主机上安装虚拟机软件VMware Workstation v7.1.4。这一步主要是为了搭建...
虚拟机Ubuntu下hadoop2.6.0的安装与配置 (单机模式,伪分布式,完全分布式)非常详细的安装配置指南