1:准备
1):mvware 三台机器(ip不用自己设置,网络nat即可) vim /etc/hosts
hadoop1 192.168.197.129 namenode jobtracker
hadoop2 192.168.197.130 datanode tasktracker
hadoop3 192.168.197.131 datanode tasktracker
2)ubuntu系统
ubuntu-13.04-server-i386(因为主机不支持tv-x,所以只能安32位的)
url:http://releases.ubuntu.com/13.04
3)安装vmware tools (主要是用来向虚拟机共享数据,可选)
安装方式 :http://692088846.iteye.com/blog/1986593
4)安装jdk(最新版即可)
url:http://www.oracle.com/technetwork/java/javase/downloads/java-archive-downloads-javase6-419409.html
5)系统须要安装ssh并安装自动密钥(你须要创建hadoop的传用户)
ssh:可参见http://692088846.iteye.com/blog/1986477
由于是ubuntu所以是用apt-get安装: http://692088846.iteye.com/blog/1914161
ssh自动密钥:http://692088846.iteye.com/blog/1986814 (准备时可先不做)
6)hadoop 这里使用的是0.20.2版本
url:http://archive.apache.org/dist/hadoop/core/hadoop-0.20.2/
2:具做步骤
1)创建hadoop用户
命令:adduser hadoop(三台机器都须要相同的用户)
2)修改hosts文件(vim /etc/hosts)
这是我的,你的须要写上你自己的ip
192.168.197.130 hadoop2
192.168.197.131 hadoop3
3)自动ssh连接
可以参考:http://692088846.iteye.com/blog/1986814
我遇到的问题:
这时你须要在hadoop用户目录下(cd /home/hadoop)连接其它主机(命令:ssh 192.168.197.131),这样就可以生成.ssh目录了
2:公钥你可以把它们都拷到一个文件中,然后再分发到其它主机
4)这时你须要修改hadoop的配置文件(目录在hadoop/conf)
第一个是hadoop-env.sh:这个你只须要加上java_home即可
vi /etc/hadoop/conf/hadoop-env.sh
找到JAVA_HOME修改成你的java目录即可
第二个是core-site.xml,它是核心文件
<configuration> <property> <name>fs.default.name</name> #namenode节点所在的机器 <value>hdfs://hadoop1:8020</value> #端口随便 </property> </configuration>
第三个是hdfs-site.xml,它是hdfs配置文件
<configuration> <property> <name>dfs.replication</name> #文件副本数 <value>2</value> </property> <property> <name>dfs.name.dir</name> #hdfs文件存放的目录 <value>/hadoop/data</value> </property> </configuration>
第四个是mapred-site.xml,它是mapred的配置文件
<configuration> <property> <name>mapred.job.tracker</name> #指定jobtracker的主机 <value>hadoop1:8021</value> </property> </configuration>
第五个是masters,它用来指定主机的角色(管理),加入主机名或ip即可
第六个是slaves,它用来指定主机的角色(工作),加入主机名或ip即可
5:把hadoop复制到其它主机
scp -r /etc/hadoop/conf hadoop-02:/etc/hadoop
6:启动hadoop
1)在namenode节点上格式化hdfs
/usr/lib/hadoop-0.20/bin/hadoop namenode -format
2)启动所有机器的hadoop
/usr/lib/hadoop-0.20/bin/start-all.sh
3)使用jps查看各机器是否启动相关服务
namenode启动了
1596 SecondaryNameNode
1661 JobTracker
datanode启动了
1378 DataNode
4)可以在本机的浏览器中查看到集群的运行情况
http://192.168.197.129:50030/jobtracker.jsp
或hdfs状态:http://192.168.197.129:50070
相关推荐
1. **格式化HDFS**: 在Hadoop安装目录下执行`bin/hdfs namenode -format`。 2. **启动HDFS**: 执行`sbin/start-dfs.sh`。 3. **启动YARN**: 执行`sbin/start-yarn.sh`。 **步骤五:运行WordCount示例** 1. **编译...
### Ubuntu安装Hadoop实现MapReduce里的WordCount #### 核心知识点概述 1. **Ubuntu环境下的基础配置**:包括VMware Tools的安装、JDK的安装与配置。 2. **Hadoop的安装与配置**:包括下载与解压、环境变量配置、...
Hadoop安装教程_单机/伪分布式配置_Hadoop2.7.1/Ubuntu 16.04 本教程主要讲述了在 Ubuntu 16.04 环境下安装 Hadoop 2.7.1 的步骤,包括单机模式、伪分布式模式和分布式模式三种安装方式。以下是本教程的知识点总结...
7. 在 Ubuntu 操作系统上搭建 Hadoop 单节点需要完成环境准备、软件安装和配置过程。 8. 配置 SSH 免密钥登录可以确保可以无需密码登录。 9. 修改配置文件,包括 core-site.xml 和其他文件,是搭建 Hadoop 单节点的...
### 基于Ubuntu的Hadoop简易集群安装与配置知识点详解 #### 一、绪论 ##### 1.1 研究背景及意义 在当前信息化社会中,随着科技的发展与进步,尤其是互联网技术的普及,我们正处在一个数据爆炸的时代。各行各业都在...
Hadoop安装
在Ubuntu系统上部署并运行Hadoop WordCount实例,首先需要确保已经安装了Hadoop环境,并且版本为hadoop-0.20.2。此版本较旧,主要用于教学或测试目的,在生产环境中建议使用更稳定的新版本。 1. **下载与解压Hadoop...
### Hadoop 在 Ubuntu 下的安装教程 #### 一、安装 Linux 操作系统 在搭建 Hadoop 开发环境之前,首先需要确保系统环境已准备好。本文档假设你正在使用 Ubuntu 12.04 操作系统。 如果你还没有安装 Linux 操作系统...
ubuntu下安装hadoop集群,设置ssh对其他node无密码访问
4. **验证Hadoop安装**:通过执行`hadoop version`命令来确认Hadoop是否已成功安装。 #### 四、配置完全分布式环境 为了实现Hadoop的完全分布式模式,需要配置多个虚拟机作为集群节点,并确保每个节点之间能够互相...
### Ubuntu11.10下安装Hadoop0.20.2(单机伪分布式) #### 一、安装虚拟机VMware Workstation v7.1.4 在开始Hadoop的安装之前,首先需要在宿主机上安装虚拟机软件VMware Workstation v7.1.4。这一步主要是为了搭建...
"基于Ubuntu的hadoop集群安装与配置" 本文将详细介绍基于Ubuntu环境下的Hadoop集群安装与配置,涵盖Hadoop的基本概念、HDFS(分布式文件系统)、MapReduce(分布式计算模型)、集群架构、NameNode和DataNode的角色...
在本文中,我们将详细探讨如何在Ubuntu 10.10 (Maverick Meerkat)上通过VMware虚拟机安装并配置Hadoop集群。这个过程涵盖了从搭建虚拟环境到安装必要的软件,以及最终配置Hadoop分布式文件系统(HDFS)和MapReduce服务...
Ubuntu12.04下安装Hadoop2.4.0单机模式详细教程
"Ubuntu 上的 Hadoop 安装指南" 在 Ubuntu 操作系统中安装 Hadoop,是大数据处理和分析的重要一步骤。本文将指导您如何在 Ubuntu 上安装 Hadoop,包括安装前的准备、Hadoop 的下载和安装、Java 环境的配置、ssh ...
大数据处理实验一-VMware+Ubuntu+Hadoop安装 本实验旨在指导用户安装 VMware Workstation 16 Pro、Ubuntu 和 Hadoop,了解大数据处理的基本概念和安装过程。通过本实验,用户可以学习如何安装 VMware Workstation ...
"虚拟机Ubuntu+Hadoop+hive安装教程" 本文档旨在指导用户安装 Ubuntu 操作系统、Hadoop 分布式计算框架和 Hive 数据仓库管理系统于虚拟机中。整个过程分为三个部分:安装 Ubuntu 操作系统、安装 Hadoop 分布式计算...
【在 Ubuntu12.04 上安装 Hadoop-1.2.1】的详细步骤 在 Ubuntu12.04 上安装 Hadoop-1.2.1 的过程涉及到多个环节,包括系统准备、用户权限设置、Java 开发环境的安装、Hadoop 的下载与配置、主机名与网络设置以及 ...