环境搭建
操作系统 Ubuntu-Server 11.10 64bit
JDK 1.6.0_31
机器名 IP 作用
wenbo00 192.168.182.130 NameNode, master, jobTracker
wenbo01 192.168.182.132 DataNode, slave , taskTracker
wenbo02 192.168.182.133 DataNode, slave , taskTracker
不要安装图形界面以节约内存,本人机器为Y470,使用VMware Player同时启动三个server,仅消耗60%的内存。
另外,保持每个server环境的一致,可以配好一台机器后使用VMWare Player进行镜像复制
在三台机器的/etc/hosts文件里添加下面内容
192.168.182.130 wenbo00
192.168.182.132 wenbo01
192.168.182.133 wenbo02
配置无密码登陆到NameNode
1.在NameNode上生成授权文件ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
2.将生成的id_dsa.pub写入授权文件 cat .ssh/id_dsa.pub >> .ssh/authorized_keys
3.将生成的id_dsa.pub文件copy到DataNode上,重复第二个步骤 scp .ss/id_dsa.pub root@192.168.182.132:/home/ssh
每台机器上安装hadoop并配置环境变量,向etc/profile加入
export HADOOP_HOME=/home/hadoop-1.0.1
export PATH=$HADOOP_HOME/bin:$PATH
配置每台机器hadoop的jdk,在HADOOP_HOME/conf/hadoop-env.sh中加入
export JAVA_HOME=/home/java/jdk1.6.0_31
在NameNode上修改/home/hadoop-1.0.1/conf/masters 和 /home/hadoop-1.0.1/conf/slaves文件
masters: 192.168.182.130
slaves: 192.168.182.132
192.168.182.133
修改/home/hadoop-1.0.1/conf/下的配置文件
core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://wenbo00:9000</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>wenbo00:9001</value>
</property>
</configuration>
三台机器上配置相同
配置完成后
在NameNode上启动hadoop start-all.sh
在NameNode上执行jps命令,显示如下
2713 NameNode
2971 JobTracker
3102 Jps
2875 SecondaryNameNode
在DataNode上执行jps命令,显示如下
2184 TaskTracker
2256 Jps
2076 DataNode
在NameNode下查看集群信息 hadoop dfsadmin -report,显示如下
Configured Capacity: 40159797248 (37.4 GB)
Present Capacity: 34723860480 (32.34 GB)
DFS Remaining: 34723794944 (32.34 GB)
DFS Used: 65536 (64 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 2 (2 total, 0 dead)
Name: 192.168.182.132:50010
Decommission Status : Normal
Configured Capacity: 20079898624 (18.7 GB)
DFS Used: 28687 (28.01 KB)
Non DFS Used: 2717982705 (2.53 GB)
DFS Remaining: 17361887232(16.17 GB)
DFS Used%: 0%
DFS Remaining%: 86.46%
Last contact: Tue Mar 13 03:10:29 PDT 2012
Name: 192.168.182.133:50010
Decommission Status : Normal
Configured Capacity: 20079898624 (18.7 GB)
DFS Used: 36849 (35.99 KB)
Non DFS Used: 2717954063 (2.53 GB)
DFS Remaining: 17361907712(16.17 GB)
DFS Used%: 0%
DFS Remaining%: 86.46%
Last contact: Tue Mar 13 03:10:29 PDT 2012
分享到:
相关推荐
Hadoop伪分布式环境搭建是指在单个节点上模拟分布式环境,以便于开发、测试和学习Hadoop相关技术。本文将介绍如何在Windows和Linux平台上搭建Hadoop伪分布式环境,包括下载安装Hadoop、配置Eclipse、搭建Map/Reduce...
自己总结的Hadoop全分布模式环境搭建。
因此,为了简化开发流程,提高效率,通常会搭建一个专门的开发环境来编写和测试Hadoop应用程序。本文档将详细介绍如何搭建这样一个环境。 #### 二、HadoopEclipse插件介绍 HadoopEclipse插件是专为Eclipse开发环境...
本文件包含hadoop集群搭建的详细步骤,包含基础环境搭建,Hadoop集群搭建,Hive搭建。小白放心食用,无坑。 其中基础环境搭建包括虚拟机安装、centos7、网络配置、xshell、notepad等环境的安装。注:本文里安装的...
涉及到了Hadoop2.0、Hbase、Sqoop、Flume、Hive、Zookeeper的具体环境搭建
Hadoop伪分布模式环境搭建 Hadoop伪分布模式环境搭建是指在单个节点上搭建Hadoop集群环境,主要用于开发调试MapReduce应用逻辑。以下是搭建伪分布模式环境的步骤: 一、SSH协议介绍 SSH(Secure Shell)是一种...
五台虚拟机搭建Hadoop3.3.1高可用完全分布式环境
hadoop的环境搭建过程.方便第一次使用hadoop的同学.快速搭建环境
Hadoop伪分布式集群环境搭建,有常见错误及解决方案。
虚拟机安装是 Hadoop 环境搭建的第一步。我们可以使用 VMware Workstation 9.0.2来安装虚拟机。在安装过程中,我们需要选择 Custom 方式来安装虚拟机,并选择 Typical 选项来安装 CentOS 操作系统。 二、CentOS ...
通过上述步骤,已经成功地在Linux环境下搭建了一个Hadoop 3.1 的伪分布式环境。这一环境不仅可以用于测试和学习,还能作为小型数据处理任务的基础平台。随着对Hadoop理解的深入,用户还可以进一步探索更多高级特性,...
"hadoop集群环境的搭建" Hadoop 是一个开源的大数据处理框架,由Apache基金会开发和维护。它可以实现大规模数据的存储和处理,具有高可扩展性、可靠性和高性能等特点。搭建 Hadoop 集群环境是实现大数据处理的重要...
在Windows环境下搭建Hadoop2.6开发环境是一个相对复杂的过程,但通过详细的步骤和注意事项,可以有效地完成。这里我们将深入探讨这个过程,并介绍如何解决可能出现的问题。 首先,我们需要下载Hadoop2.6.0的安装包...
在本教程中,我们将详细介绍如何在Windows系统下搭建Hadoop环境,内容涉及虚拟机的安装...对于初学者来说,按照本教程的步骤一步步操作,可以在短时间内搭建起自己的Hadoop集群环境,进而进行Hadoop相关的学习和研究。
在Windows上使用Cygwin作为类Unix支撑环境来安装Hadoop, 网上介绍的还是比较多的。...其实,Hadoop环境搭建的主要内容是Cygwin的安装,估计要占总时间的2/3, 其它工作我会手把手的教你,come on,follow me!
本文将重点讲解Hadoop的伪分布式环境搭建,这非常适合学习和测试。 1. **Hadoop运行模式** - **本地模式**:在这种模式下,所有的Hadoop进程都在同一个JVM(Java虚拟机)中运行,主要用于快速验证代码和调试。 ...
通过上述步骤,我们可以成功搭建起一个Hadoop完全分布式环境。在整个过程中,需要注意的是配置文件的准确性以及节点间的同步性。一旦搭建完成,就可以利用Hadoop的强大能力来处理大规模的数据集了。
Hadoop完全分布式环境搭建文档,绝对原创,并且本人亲自验证并使用,图文并茂详细介绍了hadoop完全分布式环境搭建所有步骤,条例格式清楚,不能成功的,请给我留言!将给与在线支持!
hadoop1.x环境搭建及其入门,如需获取更多hadoop资源