机器配置:win7+i7-3635QM+12G内存,使用Vmware虚拟机,里面安装3台Ubuntu12.04 64位。虚拟机每一个分配CPU2核、内存2G、硬盘40G。使用NAT网络适配模式。
1、安装Ubuntu
安装Ubuntu后,运行
sudo apt-get update
sudo apt-get install openssh-server
安装ssh server
2、安装JDK,设置CLASSPATH、PATH路径
3、配置hosts文件
192.168.222.129 clusterMaster
192.168.222.130 clusterSlave1
192.168.222.131 clusterSlave2
4、配置SSH免密码链接
进入到用户.ssh目录:/home/sujx/.ssh
运行ssh-keygen -t rsa生成公钥和密钥。
再把id_dsa.pub 追加到授权key 里面:cat id_rsa.pub >> authorized_keys
每台机器都这么做,最后把3个authorized_keys放到一起,再复制到每台机器的.ssh文件夹下。注意,每一个公钥最后的主机名要修改成为前面hosts文件中对应的主机名。
最后如下:
5、下载解压Hadoop1.2.1包,解压到 /opt 目录下(需要预先给opt目录赋权 chown -R sujx /opt)。
修改配置文件:
5.1 core-site.xml
5.2 mapred-site.xml
5.3 hdfs-site.xml
5.4 masters
5.5 slaves
5.6 hadoop-env.sh
修改JAVA_HOME配置
配置完毕时候,使用scp把hadoop-1.2.1文件夹复制到clusterSlave1和clusterSlave2上,路径都在/opt下。
6、设置环境变量
下图是我本机的环境变量设置:
三台机器上的环境变量都相同
7、启动hadoop
命令:start-all.sh
查看进程:
clusterMaster:
clusterSlave:
至此集群安装完毕
相关推荐
5. **Hadoop集群安装** - 在namenode (test1)上解压缩Hadoop 1.2.1软件包,然后将其移动到/home/hadoop目录。 - 修改六个关键配置文件: - `hadoop-env.sh`: 设置JAVA_HOME路径。 - `core-site.xml`: 配置Hadoop...
### Hadoop 1.2.1 安装部署知识点总结 #### 一、Hadoop 来源及设计思想 - **Hadoop 设计思想**:Hadoop 的设计初衷是为了实现大规模数据处理的需求,通过分布式计算的方式提高数据处理的效率。其核心是分布式文件...
在Hadoop 1.2.1中,YARN作为资源管理器,负责任务调度和集群资源的分配。尽管YARN API不直接包含在`hadoop-1.2.1-api`中,但了解其工作原理对于理解Hadoop的运行机制至关重要。YARN通过ResourceManager和NodeManager...
Hadoop1.2.1-Eclipse-Indigo 插件是专门为 Eclipse Indigo 版本设计的,目的是为了优化在该版本 IDE 中的 Hadoop 体验。 这个插件包含了以下关键功能和知识点: 1. **集成开发环境**:Eclipse 是一个广泛使用的 ...
这个压缩包文件“hadoop 1.2.1核心源码”包含了Hadoop项目的核心组件,让我们深入探讨一下其中涉及的关键知识点。 1. **Hadoop架构**:Hadoop的核心由两个主要部分组成:HDFS(Hadoop Distributed File System)和...
部署Hadoop 1.2.1集群是一个复杂但有序的过程,涉及到系统配置、软件安装、环境变量设置、SSH安全配置以及详细的Hadoop配置。遵循上述指南,您可以顺利地在三台虚拟机上建立一个功能完善的Hadoop集群,为大数据处理...
YARN则是Hadoop 1.2.1引入的新一代资源管理系统,负责集群资源的调度和分配,提高了系统整体性能。 接下来是“docs”目录,其中包含了Hadoop的API文档。这对于开发者来说至关重要,因为通过API文档,开发者可以了解...
综上所述,本文详细介绍了如何在Linux环境下搭建和配置Hadoop 1.2.1集群的过程。这些步骤包括了从环境准备、配置文件修改到服务启动和基本操作等各个方面,旨在帮助读者快速掌握Hadoop的基本使用方法。
Hadoop 1.2.1是Hadoop发展中的一个重要版本,它在早期版本的基础上进行了多方面的优化和改进,为开发者提供了更稳定、功能更全面的API接口。 Hadoop的核心组件主要包括HDFS(Hadoop Distributed File System)和...
### Hadoop 1.2.1 安装与配置指南 #### 一、概述 本文档旨在指导用户完成Hadoop 1.2.1版本在Linux环境下的安装与配置过程。Hadoop是一款开源软件框架,主要用于分布式存储和处理大规模数据集。通过本手册的学习,...
6. **hadoop-minicluster-1.2.1.jar**:这个库提供了在单机上运行小型Hadoop集群的能力,对于开发和测试环境非常有用。它允许开发者在本地环境中快速启动一个包含所有Hadoop服务的小型集群,无需复杂的分布式环境...
Hadoop的核心思想是将大型数据集分布到集群上的多台计算机上进行处理,从而实现高效的数据存储和计算。HDFS是Hadoop的分布式文件系统,它设计的目标是高容错性、高吞吐量和低成本。HDFS通过数据复制来保证数据的可靠...
在实际使用中,安装Hadoop-Eclipse-Plugin非常简单。只需将jar文件(如hadoop-eclipse-plugin-2.8.0.jar)复制到Eclipse的plugins目录下,然后重启Eclipse,即可在“New Project”中看到Hadoop相关的项目类型。在...
### Hadoop-1.2.1安装与配置详解 #### 一、背景介绍 Hadoop是一款开源的大数据处理框架,能够高效地存储和处理大规模的数据集。本文档旨在提供一个详细的Hadoop-1.2.1版本的安装教程,特别针对Red Hat Enterprise ...
本篇将详细阐述如何在Hadoop 2.7.1环境下搭建HBase 1.2.1集群,并进行性能优化,以提升系统效率。 首先,我们需要了解Hadoop和HBase的基本概念。Hadoop是基于分布式文件系统HDFS(Hadoop Distributed File System)...
Hadoop Map/Reduce是一个使用简易的软件框架,基于它写出来的应用程序能够运行在由上千个商用机器组成的大型集群上,并以一种可靠容错的方式并行处理上T级别的数据集。 一个Map/Reduce 作业(job) 通常会把输入的...
### CentOS 下安装伪分布式 Hadoop-1.2.1 的详细步骤 #### 一、环境搭建及准备 在正式开始安装伪分布式 Hadoop-1.2.1 之前,需要确保 CentOS 系统版本为 5.10,并且已准备好必要的软件环境。 **系统环境**: - **...
Win7环境下通过eclipse连接hadoop1.2.1集群时,会遇到如下报错: Exception in thread "main" java.io.IOException: Failed to set permissions of path: \tmp\hadoop-Administrator\mapred\staging\Administrator-...
【在 Ubuntu12.04 上安装 Hadoop-1.2.1】的详细步骤 在 Ubuntu12.04 上安装 Hadoop-1.2.1 的过程涉及到多个环节,包括系统准备、用户权限设置、Java 开发环境的安装、Hadoop 的下载与配置、主机名与网络设置以及 ...