安装ssh
1 |
apt-get install ssh
|
安装rsync
1 |
apt-get install rsync
|
配置ssh免密码登录(因为是单机伪分布式模式,所以仅需检查一下机器是否对自己运行ssh)
1 |
ssh -keygen -t dsa -P '' -f ~/. ssh /id_dsa
|
2 |
cat ~/. ssh /id_dsa.pub >>~/. ssh /authorized_keys
|
验证是否成功
1 |
ssh localhost
|
下载Hadoop0.20.2,JDK1.6.0_31
新建 linux 终端,建立app目录,Java和Hadoop都安装在此目录中。
1 |
mkdir /home/app
|
2 | 上传jdk与hadoop到app目录下面:rz ,选择要上传的文件上传。
接下来,安装Java和Hadoop,Hadoop解压即可。
1 |
cd /home/app
|
2 |
chmod +x jdk-6u31-linux-i586.bin // 使其获得可执行权限
|
3 |
./jdk-6u31-linux-i586.bin // 进行安装
|
配置JDK环境变量
1 |
vi /etc/profile
|
增加下面语句到最后
#set java environment
|
export JAVA_HOME=/home/app/jdk1.6.0_31
|
2 export
JRE_HOME=/home/app/jdk1.6.0_31/jre
3 |
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$JAVA_HOME:$PATH
|
4 |
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
|
一般更改/etc/profile文件后,需要重启机器才能生效。这里介绍一种不用重启使其生效的方法:
source /etc/profile
查看java环境变量是否配置成功:
java -version
接下来开始配置Hadoop
tar zxf hadoop-0.20.2-bin.tar.gz // 解压hadoop压缩包
mv hadoop-0.20.2 hadoop //将文件夹重命名为hadoop
配置Hadoop环境变量
1 |
vi /etc/profile
|
增加下面语句到最后
#set hadoop environment
export HADOOP_HOME=/home/app/hadoop
export PATH=$HADOOP_HOME/bin:$PATH
进入Hadoop目录
1 |
cd /home/app/hadoop
|
修改配置文件,指定JDk安装路径
1 |
vi conf/hadoop- env .sh
|
2 |
export JAVA_HOME=/home/app/jdk1.6.0_31
|
修改Hadoop核心配置文件core-site.xml,这里配置的是HDFS的地址和端口号
1 |
vi conf/core-site.xml
|
1 |
< configuration >
|
2 |
< property >
|
3 |
< name >fs.default.name</ name >
|
4 |
< value >hdfs://localhost:9000</ value >
|
5 |
</ property >
|
6 |
</ configuration >
|
修改Hadoop中HDFS的配置,配置的备份方式默认为3,因为安装的是单机版,所以需要改为1
1 |
vi conf/hdfs-site.xml
|
1 |
< configuration >
|
2 |
< property >
|
3 |
< name >dfs.replication</ name >
|
4 |
< value >1</ value >
|
5 |
</ property >
|
6 |
</ configuration >
|
修改Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口
1 |
vi conf/mapred-site.xml
|
1 |
< configuration >
|
2 |
< property >
|
3 |
< name >mapred.job.tracker</ name >
|
4 |
< value >localhost:9001</ value >
|
5 |
</ property >
|
6 |
</ configuration >
|
接下来,启动Hadoop,在启动之前,需要格式化Hadoop的文件系统HDFS,进入Hadoop文件夹,输入下面命令
1 |
bin/hadoop namenode - format
|
然后启动Hadoop,输入命令
1 |
bin/start-all.sh |
这个命令为所有服务全部启动。
最后,验证Hadoop是否安装成功。
方法一:执行jps命令,查看是否有信息,如果没有看hadoop/logs下对应的log日志是否报错
方法二:打开浏览器,分别输入一下网址:
http://localhost:50030 (MapReduce的Web页面)
http://localhost:50070 (HDfS的web页面)
如果都能查看,说明安装成功。
$ sudo ufw disable
注意:这步非常重要。如果不关闭,有可能会出现找不到datanode 问题。
Hadoop分别从三个角度将主机划分为两种角色:
第一,划分为master和slave,即主人与奴隶。
第二,从HDFS的角度,将主机划分为namenode和datanode(在分布式文件系统中,目录的管理很重要,管理目录的就相当于主人,而namenode就是目录管理者)。
第三,从MapReduce的角度,将主机划分为JobTracker和TaskTracker(一个job经常被划分为多个task,从这个角度不难理解它们之间的关系)。
相关推荐
### Ubuntu11.10下安装Hadoop0.20.2(单机伪分布式) #### 一、安装虚拟机VMware Workstation v7.1.4 在开始Hadoop的安装之前,首先需要在宿主机上安装虚拟机软件VMware Workstation v7.1.4。这一步主要是为了搭建...
在 Ubuntu 11.10 桌面版下安装 JDK 和 Hadoop 需要经过多个步骤,包括安装必要的工具软件、配置 SSH 无密码登录、安装 Vim 和 Rz、下载 Hadoop 和 JDK 安装包、安装 JDK 和 Hadoop、配置 JDK 环境变量、配置 Hadoop ...
### Hadoop 在 Ubuntu 下的安装教程 #### 一、安装 Linux 操作系统 在搭建 Hadoop 开发环境之前,首先需要确保系统环境已准备好。本文档假设你正在使用 Ubuntu 12.04 操作系统。 如果你还没有安装 Linux 操作系统...
【标题】:Ubuntu环境下Hadoop单机模式安装详解 【描述】:本文档详细介绍了如何在Ubuntu操作系统上从零开始安装Hadoop,包括Linux安装、创建Hadoop用户组和用户、JDK安装、修改机器名、SSH服务安装以及实现SSH无...
在本文档中,我们将详细讲解如何在Ubuntu 11.10操作系统上进行Hadoop的单机模式安装。Hadoop是一个开源的分布式计算框架,它允许在大规模集群中处理大数据。在单机模式下,Hadoop可以在一台计算机上模拟分布式环境,...
在本篇文章中,我们将详细介绍如何在单机上搭建 Hadoop 环境,包括安装 Linux 操作系统、创建 Hadoop 用户组和用户、安装 JDK、修改机器名、安装 SSH 服务、建立 SSH 无密码登录等步骤。 安装 Linux 操作系统 在...
在Ubuntu系统中搭建Hadoop是一项基础的分布式计算环境配置任务,这个过程涵盖了多个步骤,包括安装Linux操作系统、创建Hadoop用户组和用户、安装JDK、修改机器名、安装SSH服务以及建立SSH无密码登录,最后是安装...
本文将指导如何在单机上通过虚拟机搭建Hadoop环境,包括安装虚拟机、安装Ubuntu操作系统、配置网络、安装依赖项、安装和配置Hadoop等步骤。 一、安装虚拟机 为了搭建Hadoop环境,我们需要首先安装虚拟机软件VMware...
【Hadoop在Linux下的环境搭建】是大数据处理领域的一个关键环节,主要涉及到分布式计算框架的配置,以便在多台计算机(通常称为节点)上协同工作。Hadoop是Apache基金会开发的开源项目,它包含了两个核心组件:HDFS...
本日志主要记录了一位开发者在Ubuntu系统上配置Hadoop开发环境的过程,包括系统环境准备、SSH、JDK、JRE、Tomcat和NetBeans的配置,以及Hadoop环境的搭建和测试。 1. **系统环境配置** - 硬件平台:Pentium(R) ...
- **系统版本**:Ubuntu 11.10,内核版本3.0.0-12-generic。 ##### 集群网络环境 - **节点配置**:集群包含4个节点,其中1个名称节点(Namenode)和3个数据节点(Datanode)。 - **节点间通信**:节点之间能够通过...
【基于Hadoop的云存储系统配置】涉及到的关键技术主要集中在Hadoop分布式集群的搭建和配置上,主要包括软件环境准备、JDK安装、IP配置、SSH设置等步骤。 首先,【软件环境】要求的是Linux系统,这里选用的是Ubuntu ...
- **操作系统**:Ubuntu 11.10 - **Java Development Kit (JDK)**:Sun JDK 1.6.0_27 - **Hadoop 版本**:Hadoop-1.0.2 - **集成开发环境 (IDE)**:Eclipse Indigo 3.7.1 #### 二、Hadoop-eclipse插件安装 ##### ...
在当前的大数据处理环境中,Hadoop分布式文件系统(HDFS)作为主流的数据存储解决方案之一,面临着诸多挑战,其中最重要的一项就是如何保障系统的高可用性(High Availability,简称HA)。在传统的单点故障解决方案...