1)安装JAVA
2)SSH免密码
3)解压hadoop
这些安装与 1.03 一样。
1.03 的安装,请参照: http://pftzzg.iteye.com/blog/1910153
4)设置
a)
[root@centerOsMaster home]# vim /etc/profile
export JAVA_HOME=/usr/java/jdk1.6.0_31
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export TERM=linux
export HADOOP_HOME=/hadoop/hadoop-0.20.2
export PATH=$HADOOP_HOME/bin:$PATH
[root@centerOsMaster home]# source /etc/profile
b)
[hadoop@centerOsMaster conf]$ vim hadoop-env.sh
c)
[hadoop@centerOsMaster conf]$ vim core-site.xml
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>hadoop.tmp.dir</name> <value>/hadoop/data/tmp</value> </property> <property> <name>fs.default.name</name> <value>hdfs://centerOsMaster:9000</value> </property> </configuration>
d)
[hadoop@centerOsMaster conf]$ vi hdfs-site.xml
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>dfs.name.dir</name> <value>/hadoop/data/name</value> </property> <property> <name>dfs.data.dir</name> <value>/hadoop/data/data</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
e)
[hadoop@centerOsMaster conf]$ vi mapred-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>mapred.job.tracker</name> <value>hdfs://centerOsMaster:9001</value> </property> <property> <name>mapred.local.dir</name> <value>/hadoop/data/local</value> </property> </configuration>
6)使用
[hadoop@centerOsMaster conf]$ mkdir -p /hadoop/data/local
[hadoop@centerOsMaster conf]$ mkdir -p /hadoop/data/name
[hadoop@centerOsMaster conf]$ mkdir -p /hadoop/data/data
[hadoop@centerOsMaster conf]$ mkdir -p /hadoop/data/tmp
[hadoop@centerOsMaster bin]$ hadoop namenode -format
12/12/08 23:47:19 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = centerOsMaster/192.168.80.55
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 0.20.2
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20 -r 911707; compiled by 'chrisdo' on Fri Feb 19 08:07:34 UTC 2010
************************************************************/
Re-format filesystem in /hadoop/data/name ? (Y or N) Y
12/12/08 23:47:21 INFO namenode.FSNamesystem: fsOwner=hadoop,hadoop
12/12/08 23:47:21 INFO namenode.FSNamesystem: supergroup=supergroup
12/12/08 23:47:21 INFO namenode.FSNamesystem: isPermissionEnabled=true
12/12/08 23:47:21 INFO common.Storage: Image file of size 96 saved in 0 seconds.
12/12/08 23:47:21 INFO common.Storage: Storage directory /hadoop/data/name has been successfully formatted.
12/12/08 23:47:21 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at centerOsMaster/192.168.80.55
************************************************************/
这是是大写。是区分大小写的。
[hadoop@centerOsMaster bin]$ ./start-all.sh
starting namenode, logging to /hadoop/hadoop-0.20.2/bin/../logs/hadoop-hadoop-namenode-centerOsMaster.out
localhost: starting datanode, logging to /hadoop/hadoop-0.20.2/bin/../logs/hadoop-hadoop-datanode-centerOsMaster.out
localhost: starting secondarynamenode, logging to /hadoop/hadoop-0.20.2/bin/../logs/hadoop-hadoop-secondarynamenode-centerOsMaster.out
starting jobtracker, logging to /hadoop/hadoop-0.20.2/bin/../logs/hadoop-hadoop-jobtracker-centerOsMaster.out
localhost: starting tasktracker, logging to /hadoop/hadoop-0.20.2/bin/../logs/hadoop-hadoop-tasktracker-centerOsMaster.out
[hadoop@centerOsMaster bin]$
总结:1)注意端口
2)注意版本
集群的安装请参考:http://pftzzg.iteye.com/blog/1910171
hadoop-0.20 请参考:http://pftzzg.iteye.com/admin/blogs/1911023
1.03 请参考:http://pftzzg.iteye.com/admin/blogs/1910153
相关推荐
本文将详细介绍如何在三台虚拟机上安装配置Hadoop-0.20.205.0和HBase-0.90.5,包括单机模式和集群模式的安装配置流程。 #### 二、环境准备 首先,我们需要准备三台虚拟机,并安装CentOS-5.7操作系统。这三台虚拟机...
- 升级或降级:将有问题的节点更新至与集群其他节点相同的版本,或反过来,确保所有节点的Hadoop组件版本一致。 - 重新初始化:在确认版本无误后,可能需要清理旧的pid文件并重新初始化Datanode服务。 - 验证服务...
从标题“hadoop mr程序0.20之后版本所需jar包”可以看出,这里关注的是Hadoop MapReduce在0.20版本之后的版本,特别是与运行MR(MapReduce)程序相关的JAR包。描述进一步强调了这些JAR包是针对执行MR任务所必需的。...
### Hadoop-0.20.2安装与配置详解 #### 一、Hadoop-0.20.2概述 Hadoop是一款支持大数据处理的开源软件框架,它能够高效地处理PB级别的数据集。Hadoop-0.20.2版本作为早期的一个稳定版本,在很多场景中仍然具有重要...
第一代Hadoop包含了0.20.x、0.21.x和0.22.x版本,最终演变为1.0.x版本。第二代Hadoop则有0.23.x和2.x版本,其中2.x版本引入了NameNode HA(High Availability)和Wire-compatibility特性,增强了系统的稳定性和兼容...
2. 伪分布式模式:Hadoop可以在单节点上以所谓的伪分布式模式运行,此时每一个Hadoop守护进程都作为一个独立的Java进程运行。 3. 完全分布式模式:有实际意义的Hadoop集群,其规模可从几个节点的小集群到几千个节点...
目前最常用的版本是hadoop-0.20,最新的稳定版是hadoop-1.03,它主要运行在Linux系统之上,但在Windows环境下可以通过cgywin模拟Linux环境进行安装。 【Hadoop核心组件】 1. **Hadoop Common**: 这是Hadoop的基础...
Hadoop系统安装运行与程序开发的知识点涵盖以下几个方面: 1. 单机Hadoop系统安装基本步骤 首先,安装单机Hadoop系统分为在Linux操作系统下直接安装以及在Windows下安装Linux虚拟机两种方式。在Linux环境下,通常...
- **解压安装包**:在主节点上解压 Hadoop 安装包至指定目录,如 `/home/hadoop/hadoop-0.20.203.0`。 - **配置环境变量**:编辑 `/etc/profile` 文件,添加 Hadoop 的环境变量: ```bash export HADOOP_HOME=/...
- 更新源并安装Hadoop:使用命令 `sudo apt-get update` 更新源,之后使用 `sudo apt-get install hadoop-0.20` 进行安装。 - 注意事项:确保操作系统中没有与Hadoop专有名词相关的用户名,例如 `hadoop namenode` ...
这一步确保了Hadoop安装文件在所有节点上的一致性。 为了创建多台虚拟机的Hadoop集群,通常会克隆已配置好的虚拟机。每台虚拟机将扮演不同的角色,如NameNode(名称节点)、JobTracker(作业追踪器)和DataNode...
老版本的Hadoop,如0.20或1.2.1版本,虽然在本教程中未详细涉及,但本教程的配置方法对于老版本也具有参考价值。需要注意的是,新版本通常向后兼容旧版本,所以大部分旧版本的代码应当能够在新版本的Hadoop上正常...
Cloudera 和 Apache 使用相同的目录结构,Hadoop 被安装在 cd/usr/lib/hadoop-0.20/。 8. Namenode、Job tracker 和 task tracker 的端口号是? Namenode,70;Job tracker,30;Task tracker,60。 9. Hadoop 的...
Hadoop当前最常用的版本为Hadoop-0.20,而最新的版本则为Hadoop-1.03。值得注意的是,Hadoop运行在Linux系统上,若要在Windows环境下安装Hadoop,可以通过Cygnus(通常称为Cygwin)来模拟Linux环境。 #### 二、...
Hadoop 2.6 基于 YARN 的安装配置 Hadoop 2.6 是一个基于 YARN(Yet Another Resource Negotiator)的分布式计算框架,它提供了高效、可靠的数据处理能力。在本文中,我们将详细介绍 Hadoop 2.6 的安装配置过程,...