环境:ubuntu13
使用的用户为普通用户。如:用户ru
jdk安装略
1、安装ssh
(1)
sudo apt-get install openssh-server
(2)配置ssh面密码登录
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
注释:如果当前用户下没有.ssh目录,则手动创建.ssh目录。
2、下载安装hadoop
(1)下载hadoop-1.2.1-bin.tar.gz
(2)修改权限
如果拥有者不是ru:ru,使用
chown ru:ru hadoop-1.2.1-bin.tar.gz
(3)解压
ru用户下
tar -zxvf hadoop-1.2.1-bin.tar.gz
(4)将解压后的hadoop拷贝到安装目录
3、配置hadoop
配置文件在$HADOOP_HOME/conf下
(1)配置hadoop-env.sh,指定jdk的安装路径
添加jdk路径 # The java implementation to use. Required. export JAVA_HOME=/home/ruge/soft/jdk1.7.0_45
(2)修改hadoop的核心配置文件core-site.xml,配置namenode的地址和端口
<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration>
这个还是很必要的,如果不配置临时目录,格式化hdfs是会在/tem目录下创建临时目录但是tmp目录重启系统会清楚下面文件。这样namenode就启动不起来了 <property> <name>hadoop.tmp.dir</name> <value>/home/ruge/hadoop/hadooptmpdir</value> <description>A base for other temporary directories.</description> </property>
(3)修改hadoop的hdfs-site.xml,配置replication,即数据保存份数
<property> <name>dfs.replication</name> <value>1</value> </property>
(4)修改hadoop的mapred-site.xml,配置jobtracker的地址和端口
<property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property>
注:涉及到IP的地方如果是完全分布式集群,需要改成具体的IP
4、格式化hadoop的文件系统HDFS
bin/hadoop namenode -format
5、启动hadoop
bin/start-all.sh
6、验证hadoop是否启动成功
- NameNode - http://localhost:50070/
- JobTracker - http://localhost:50030/
7、使用wordcount计算单词数
(1)新建hdfs目录,不是实际的系统文件目录,只能使用hadoop dfs -ls /XXX查看 hadoop dfs -mkdir /input (2)将文件复制到新建的hdfs目录 hadoop dfs -put ./*.sh /input/ (3)使用hadoop的wordcount计算单词数 hadoop jar hadoop-examples-1.2.1.jar wordcount /input /output 注:input 和 output都是hdfs文件目录。不同的是input是需要分析的目录,outpu是存放结果的目录,且自动生成,不能手动创建
第二部分,安装hadoop集群:
1,准备2个服务器,分别为
机器名IP地址作用
hadoop.main192.168.1.102NameNode,JobTracker,DataNode,TaskTracker
hadoop.slave192.168.1.107DataNode,TaskTracker
注:2台主机必须使用相同的用户名运行hadoop
2,分别在这两个主机上,按照单机版的安装方法,安装hadoop
3,在/etc/hostname中修改主机名
在/etc/hosts中配置主机名和IP地址度对应关系
分别在2台主机中,运行以下命令:
ping hadoop.main
ping hadoop.slave
修改/etc/hosts添加master和slave的ip和主机名
4,将hadoop.main节点中的~/.ssh/id_rsa.pub文件拷贝到hadoop.slave节点的~/.ssh目录下,然后在hadoop.slave的~/.ssh/目录下运行:
cat ./id_rsa.pub >> authorized_keys
在hadoop.main节点中运行命令: ssh hadoop.slave
5, 修改2台主机的core-site.xml,配置HDFS的地址和端口号
vi conf/core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop.main:9000</value>
</property>
</configuration>
6,修改2台主机的MapReduce的配置文件,配置的是JobTracker的地址和端口
vi conf/mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop.main:9001</value>
</property>
</configuration>
7,修改2台主机中的hadoop配置文件masters
hadoop.main
8,修改2台主机中的hadoop配置文件slaves
hadoop.main
hadoop.slave
9,在haddop.main节点运行
bin/hadoop namenode -format
10,启动hadoop
bin/start-all.sh
ps: datanode time configuration
<property>
<name>heartbeat.recheck.interval</name>
<value>15</value>
</property>
相关推荐
【Hadoop 1.2.1 安装详解】 在本文中,我们将深入探讨如何在Linux环境下安装Hadoop 1.2.1集群。Hadoop是Apache软件基金会开发的一个开源框架,主要用于处理和存储大量数据,它利用分布式计算模型实现高效的数据处理...
### Hadoop 1.2.1 安装部署知识点总结 #### 一、Hadoop 来源及设计思想 - **Hadoop 设计思想**:Hadoop 的设计初衷是为了实现大规模数据处理的需求,通过分布式计算的方式提高数据处理的效率。其核心是分布式文件...
Hadoop1.2.1配置Ganlia监控
在Linux上配置的hadoop1.2.1完全分布式环境
### Hadoop 1.2.1 配置过程详解 #### 一、环境搭建与配置 **1. 创建目录** mkdir /app 在Linux环境下创建一个 `/app` 目录,用于存放JDK和Hadoop等软件。 **2. 解压 JDK 和 Hadoop 到 `/app` 目录** tar -...
Hadoop 1.2.1 API文档是大数据处理领域中至关重要的参考资料,它详细阐述了Hadoop框架在1.2.1版本中的各种接口、类和方法,为开发者提供了全面的编程指南。Hadoop作为开源的分布式计算平台,是大数据处理的基础,其...
【Hadoop 1.2.1 伪分布式安装在Mac上的详细步骤】 Hadoop是一个开源的分布式计算框架,常用于大数据处理。在这个教程中,我们将详细介绍如何在Mac系统上安装Hadoop 1.2.1的伪分布式模式,这是一种单机模拟多节点...
### Hadoop 1.2.1 安装与配置指南 #### 一、概述 本文档旨在指导用户完成Hadoop 1.2.1版本在Linux环境下的安装与配置过程。Hadoop是一款开源软件框架,主要用于分布式存储和处理大规模数据集。通过本手册的学习,...
Hadoop1.2.1-Eclipse-Indigo 插件是专门为 Eclipse Indigo 版本设计的,目的是为了优化在该版本 IDE 中的 Hadoop 体验。 这个插件包含了以下关键功能和知识点: 1. **集成开发环境**:Eclipse 是一个广泛使用的 ...
这包括但不限于安装JDK、配置Hadoop环境变量以及设置HDFS(Hadoop Distributed File System)等。 #### 二、停止Hadoop服务 1. **停止所有Hadoop进程**: - 执行`stop-all.sh`脚本停止所有的Hadoop守护进程,包括...
部署Hadoop 1.2.1集群是一个复杂但有序的过程,涉及到系统配置、软件安装、环境变量设置、SSH安全配置以及详细的Hadoop配置。遵循上述指南,您可以顺利地在三台虚拟机上建立一个功能完善的Hadoop集群,为大数据处理...
5. **Configuration**:`Configuration`类用于配置Hadoop作业,可以设置各种参数,如文件系统地址、内存分配等。 6. **Partitioner**:此接口控制Reducer的输入数据分区,可以实现自定义的数据分片策略。 7. **...
此外,源码还包含了各种实用工具和接口,如Hadoop命令行工具、配置文件管理和客户端API,这些对于开发者来说都是宝贵的参考资料。 关于“mapreduce例子”,这可能指的是包含在源码中的示例程序,它们用于演示...
它允许开发者在本地环境中快速启动一个包含所有Hadoop服务的小型集群,无需复杂的分布式环境配置。 7. **hadoop-client-1.2.1.jar**:客户端库,包含了与Hadoop集群交互所需的类和接口。这个JAR包是连接到Hadoop...
【Hadoop 1.2.1 配置详解】 在软件开发领域,Hadoop 是一个不可或缺的组件,尤其是在大数据处理和分布式计算中。Hadoop 1.2.1 是一个较早但仍然广泛使用的版本,它提供了可靠的分布式存储(HDFS)和分布式计算框架...
### Hadoop-1.2.1安装与配置详解 #### 一、背景介绍 Hadoop是一款开源的大数据处理框架,能够高效地存储和处理大规模的数据集。本文档旨在提供一个详细的Hadoop-1.2.1版本的安装教程,特别针对Red Hat Enterprise ...
解压完成后,你会得到一个名为"hadoop-1.2.1"的目录,其中包含了Hadoop的所有必要文件,如可执行文件、配置文件、文档等。接下来,你需要配置Hadoop环境,这通常包括设置HADOOP_HOME环境变量、配置Hadoop的配置文件...
在创建新项目时,可以指定Hadoop的配置文件路径,插件会自动识别并连接到集群。 总的来说,Hadoop-Eclipse-Plugin是Hadoop开发不可或缺的一部分,无论是1.2.1版本还是2.8.0版本,它们都为开发者提供了便利的工具,...
找了不少,但是都不行;提示各种错误 这个是在查找资料之后,修改的; eclipse版本号: Version: Kepler Service Release 2 Build id: 20140224-0627 ...说明一下,对应hadoop的版本是1.2.1学习来用,还是足够的。
该资源包里面包含eclipse上的hadoop-1.2.1版本插件的jar包和hadoop-1.2.1.tar.gz,亲测可用~~请在下载完该包后解压,将hadoop-1.2.1...preferences ,browser选择D:\hadoop-eclipse,配置Hadoop MapReduce的安装路径。