`
iceflyingfox
  • 浏览: 52348 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop学习日记一 环境搭建

阅读更多

环境搭建

 

 

操作系统  Ubuntu-Server 11.10 64bit
JDK        1.6.0_31

机器名           IP                            作用
wenbo00     192.168.182.130     NameNode, master, jobTracker
wenbo01     192.168.182.132     DataNode, slave , taskTracker
wenbo02     192.168.182.133     DataNode, slave , taskTracker

 不要安装图形界面以节约内存,本人机器为Y470,使用VMware Player同时启动三个server,仅消耗60%的内存。

另外,保持每个server环境的一致,可以配好一台机器后使用VMWare Player进行镜像复制

 

 

在三台机器的/etc/hosts文件里添加下面内容

 

 

192.168.182.130 wenbo00
192.168.182.132 wenbo01
192.168.182.133 wenbo02

 配置无密码登陆到NameNode

1.在NameNode上生成授权文件ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

2.将生成的id_dsa.pub写入授权文件 cat .ssh/id_dsa.pub >> .ssh/authorized_keys

3.将生成的id_dsa.pub文件copy到DataNode上,重复第二个步骤 scp .ss/id_dsa.pub root@192.168.182.132:/home/ssh

 

 

每台机器上安装hadoop并配置环境变量,向etc/profile加入

export HADOOP_HOME=/home/hadoop-1.0.1

export PATH=$HADOOP_HOME/bin:$PATH

 

 

配置每台机器hadoop的jdk,在HADOOP_HOME/conf/hadoop-env.sh中加入

export JAVA_HOME=/home/java/jdk1.6.0_31

 

在NameNode上修改/home/hadoop-1.0.1/conf/masters 和 /home/hadoop-1.0.1/conf/slaves文件

 

 

masters: 192.168.182.130
slaves: 192.168.182.132
            192.168.182.133
 

 

修改/home/hadoop-1.0.1/conf/下的配置文件

core-site.xml

 

 

<configuration>
<property>
   <name>hadoop.tmp.dir</name>
   <value>/home/hadoop/tmp</value>
</property>
<property>
   <name>fs.default.name</name>
   <value>hdfs://wenbo00:9000</value>
</property>
</configuration>
 

hdfs-site.xml

 

 

<configuration>
<property>
    <name>dfs.replication</name>
    <value>1</value>
</property>
</configuration>
 

 

mapred-site.xml

 

 

<configuration>
<property>
   <name>mapred.job.tracker</name>
   <value>wenbo00:9001</value>
</property>
</configuration>

 三台机器上配置相同

 

配置完成后

 

 

在NameNode上启动hadoop start-all.sh

在NameNode上执行jps命令,显示如下

2713 NameNode

2971 JobTracker

3102 Jps

2875 SecondaryNameNode

 

在DataNode上执行jps命令,显示如下

2184 TaskTracker

2256 Jps

2076 DataNode

 

在NameNode下查看集群信息 hadoop dfsadmin -report,显示如下

 

 

Configured Capacity: 40159797248 (37.4 GB)
Present Capacity: 34723860480 (32.34 GB)
DFS Remaining: 34723794944 (32.34 GB)
DFS Used: 65536 (64 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0

-------------------------------------------------
Datanodes available: 2 (2 total, 0 dead)

Name: 192.168.182.132:50010
Decommission Status : Normal
Configured Capacity: 20079898624 (18.7 GB)
DFS Used: 28687 (28.01 KB)
Non DFS Used: 2717982705 (2.53 GB)
DFS Remaining: 17361887232(16.17 GB)
DFS Used%: 0%
DFS Remaining%: 86.46%
Last contact: Tue Mar 13 03:10:29 PDT 2012


Name: 192.168.182.133:50010
Decommission Status : Normal
Configured Capacity: 20079898624 (18.7 GB)
DFS Used: 36849 (35.99 KB)
Non DFS Used: 2717954063 (2.53 GB)
DFS Remaining: 17361907712(16.17 GB)
DFS Used%: 0%
DFS Remaining%: 86.46%
Last contact: Tue Mar 13 03:10:29 PDT 2012
分享到:
评论

相关推荐

    hadoop伪分布式环境搭建

    Hadoop伪分布式环境搭建是指在单个节点上模拟分布式环境,以便于开发、测试和学习Hadoop相关技术。本文将介绍如何在Windows和Linux平台上搭建Hadoop伪分布式环境,包括下载安装Hadoop、配置Eclipse、搭建Map/Reduce...

    Hadoop全分布模式环境搭建[超详细]

    自己总结的Hadoop全分布模式环境搭建。

    hadoop开发环境搭建

    因此,为了简化开发流程,提高效率,通常会搭建一个专门的开发环境来编写和测试Hadoop应用程序。本文档将详细介绍如何搭建这样一个环境。 #### 二、HadoopEclipse插件介绍 HadoopEclipse插件是专为Eclipse开发环境...

    hadoop全套配置详细步骤(基础环境搭建+hadoop集群搭建+hive搭建)

    本文件包含hadoop集群搭建的详细步骤,包含基础环境搭建,Hadoop集群搭建,Hive搭建。小白放心食用,无坑。 其中基础环境搭建包括虚拟机安装、centos7、网络配置、xshell、notepad等环境的安装。注:本文里安装的...

    Hadoop2.0开发环境搭建

    涉及到了Hadoop2.0、Hbase、Sqoop、Flume、Hive、Zookeeper的具体环境搭建

    Hadoop伪分布模式环境搭建[超详细]

    Hadoop伪分布模式环境搭建 Hadoop伪分布模式环境搭建是指在单个节点上搭建Hadoop集群环境,主要用于开发调试MapReduce应用逻辑。以下是搭建伪分布模式环境的步骤: 一、SSH协议介绍 SSH(Secure Shell)是一种...

    Hadoop3.3高可用环境搭建 .docx

    五台虚拟机搭建Hadoop3.3.1高可用完全分布式环境

    hadoop环境搭建脚本

    hadoop的环境搭建过程.方便第一次使用hadoop的同学.快速搭建环境

    Hadoop伪分布式集群环境搭建

    Hadoop伪分布式集群环境搭建,有常见错误及解决方案。

    hadoop环境搭建

    虚拟机安装是 Hadoop 环境搭建的第一步。我们可以使用 VMware Workstation 9.0.2来安装虚拟机。在安装过程中,我们需要选择 Custom 方式来安装虚拟机,并选择 Typical 选项来安装 CentOS 操作系统。 二、CentOS ...

    hadoop3.1环境搭建

    通过上述步骤,已经成功地在Linux环境下搭建了一个Hadoop 3.1 的伪分布式环境。这一环境不仅可以用于测试和学习,还能作为小型数据处理任务的基础平台。随着对Hadoop理解的深入,用户还可以进一步探索更多高级特性,...

    hadoop集群环境的搭建

    "hadoop集群环境的搭建" Hadoop 是一个开源的大数据处理框架,由Apache基金会开发和维护。它可以实现大规模数据的存储和处理,具有高可扩展性、可靠性和高性能等特点。搭建 Hadoop 集群环境是实现大数据处理的重要...

    windows下hadoop2.6开发环境搭建过程说明及插件

    在Windows环境下搭建Hadoop2.6开发环境是一个相对复杂的过程,但通过详细的步骤和注意事项,可以有效地完成。这里我们将深入探讨这个过程,并介绍如何解决可能出现的问题。 首先,我们需要下载Hadoop2.6.0的安装包...

    hadoop环境搭建教程

    在本教程中,我们将详细介绍如何在Windows系统下搭建Hadoop环境,内容涉及虚拟机的安装...对于初学者来说,按照本教程的步骤一步步操作,可以在短时间内搭建起自己的Hadoop集群环境,进而进行Hadoop相关的学习和研究。

    Windows上Hadoop环境搭建简介

    在Windows上使用Cygwin作为类Unix支撑环境来安装Hadoop, 网上介绍的还是比较多的。...其实,Hadoop环境搭建的主要内容是Cygwin的安装,估计要占总时间的2/3, 其它工作我会手把手的教你,come on,follow me!

    第3章hadoop伪分布式环境的搭建.docx

    本文将重点讲解Hadoop的伪分布式环境搭建,这非常适合学习和测试。 1. **Hadoop运行模式** - **本地模式**:在这种模式下,所有的Hadoop进程都在同一个JVM(Java虚拟机)中运行,主要用于快速验证代码和调试。 ...

    Hadoop完全分布式环境搭建

    通过上述步骤,我们可以成功搭建起一个Hadoop完全分布式环境。在整个过程中,需要注意的是配置文件的准确性以及节点间的同步性。一旦搭建完成,就可以利用Hadoop的强大能力来处理大规模的数据集了。

    Hadoop完全分布式环境搭建步骤

    Hadoop完全分布式环境搭建文档,绝对原创,并且本人亲自验证并使用,图文并茂详细介绍了hadoop完全分布式环境搭建所有步骤,条例格式清楚,不能成功的,请给我留言!将给与在线支持!

    hadoop1.x环境搭建及其入门

    hadoop1.x环境搭建及其入门,如需获取更多hadoop资源

Global site tag (gtag.js) - Google Analytics