1.前言
这里暂时不讲解什么是Hadoop(既然谷歌能找到),本人也安装过Hadoop,不过是伪分布的方式安装的,这次是3部虚拟机安装,确实遇到了一些问题,所以写下这个教程。其他:反正也没人看前言,这里就略过吧。
2.Hadoop 安装前准备
虚拟机:master(192.168.1.1) slave1(192.168.1.2) slave2(192.168.1.3)
配置Host:vi /etc/hosts
192.168.1.1
master
192.168.1.2
slave1
192.168.1.3
slave2
建立SSH,在master中
mkdir ~/.ssh
chmod 700 ~/.ssh #同样在slave1,slave2建立
进入.ssh目录,生成密钥
ssh-keygen -t rsa #一直确定到结束
发布公钥到slave1跟slave2
#hadoop_user为你的账户
scp id_rsa.pub hadoop_user@slave1:/home/hadoop_user/master_key
进入slave1中的.ssh目录 如果.ssh目录中不存在authorized_keys:
mv master_key
authorized_keys
chmod 600
authorized_keys
如果存在则把master_key追加到authorized_keys中:
cat master_key >>
authorized_keys
回到master中
ssh slave1 #第一次访问需要键入yes,然后直接登录,不需要密码
同理:
master对slave2做ssh
slave1对master做ssh
slave2对master做ssh
master对master本身做ssh
关于安装JDK6以及将JDK的环境变量设置,这里就不赘述,PS:Google吧,不懂的话
3.Hadoop安装
在http://hadoop.apache.org/common/releases.html下载Hadoop,目前最新的是1.0.x,下载解压到你自己想放的目录中,我这里放在/usr/hadoop,添加路径到/etc/profile中:
export HADOOP_HOME=/usr/hadoop/
export PATH=$HADOOP_HOME/bin:$PATH
好了,安装好了!!!
4.Hadoop配置
进入HADOOP_HOME/conf修改core-site.xml文件
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
修改mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
</configuration>
修改hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
修改masters文件
master
修改slaves
slave1
slave2
修改hadoop-env.sh,去掉
export JAVA_HOME
前面的#号
export JAVA_HOME=/usr/local/jdk1.6
好了,我们在启动之前我们要先格式化一下namenode
hadoop namenode -format
经过这步,终于可以启动我们的hadoop了:
start-all.sh #因为我们把整个hadoop的bin加入到profile中,所以我们可以直接运行(给新手解释一下)
5.Hadoop测试
打开浏览器,输入:http://master:50070/就可以看到如下集群信息啦!!!怎样,赶紧跟着配置一下吧。
Cluster Summary
7 files and directories, 1 blocks = 8 total. Heap Size is 23.69 MB / 966.69 MB (2%)
Configured Capacity : 13.32 GB
DFS Used : 72 KB
Non DFS Used : 7.39 GB
DFS Remaining : 5.93 GB
DFS Used% : 0 %
DFS Remaining% : 44.54 %
Live Nodes : 2
Dead Nodes : 0
Decommissioning Nodes : 0
Number of Under-Replicated Blocks : 1
关于分享本文,请保留本文出处:http://canon--in--d.iteye.com/blog/1490699
分享到:
相关推荐
《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践...
Hadoop 安装与配置 Hadoop 是一个开源的分布式计算框架,广泛应用于大数据处理和分析领域。为了使用 Hadoop,需要安装和配置 Hadoop 环境。本文将详细介绍 Hadoop 的安装和配置过程。 下载 Hadoop 要安装 Hadoop...
hadoop安装与配置 hadoop安装与配置 Hadoop的安装与配置可以分成几个主要步骤: 1. 安装Java 2. 下载Hadoop 3. 配置Hadoop 4. 格式化Hadoop文件系统 5. 启动Hadoop 以下是基于Linux系统的简化安装与配置步骤: 1. ...
Hadoop安装与配置详细步骤: 1. 安装Hadoop之前,首先需要下载对应版本的Hadoop压缩包。官方网站提供了各版本的下载链接,用户可以根据需求下载。 2. 下载完毕后,将压缩包解压到指定目录。在本例中,将Hadoop-...
### Hadoop安装与配置知识点详解 #### 一、Hadoop简介 Hadoop是一个开源软件框架,主要用于处理大规模数据集(GB至PB级)的分布式计算环境。它通过使用简单的编程模型来实现高吞吐量的数据处理任务。Hadoop的核心...
Hadoop安装与配置知识点详解 一、Hadoop简介 Hadoop是一个由Apache基金会开发的开源软件框架,主要用于存储和...一旦Hadoop配置成功,就可以开始处理大数据了,这对于数据科学家和工程师来说,无疑是一个强大的工具。
Hadoop 安装与配置实验报告 本实验报告的目的是对 Hadoop 的安装与配置进行实验和实践,掌握 Hadoop 的基本使用和配置方法。该实验报告将分为 several 部分,分别是实验名称、实验日期、实验目的、实验用的仪器和...
### Hadoop安装与配置详解 #### 一、概述 Hadoop是一个开源软件框架,用于分布式存储和处理大数据集。它能够高效地处理PB级别的数据,适用于海量数据的存储和计算场景。本文将详细介绍如何在多台虚拟机上安装和...
Hadoop的安装与配置是一个相对复杂但结构化的过程,主要涉及环境准备、软件安装、配置调整以及集群启动等多个步骤。以下是一个详细的Hadoop安装与配置指南: 一、环境准备 硬件与软件要求 硬件:Hadoop集群至少需要...
配置主要涉及到修改Hadoop配置文件,这些文件通常位于Hadoop安装目录下的etc/hadoop/路径下。重要的配置文件包括core-site.xml、hdfs-site.xml、yarn-site.xml和mapred-site.xml。在core-site.xml中配置Hadoop的核心...
Hadoop安装与配置教程主要涵盖了在Linux系统上搭建单节点Hadoop集群的所有步骤。首先,对于初学者而言,需要在具备基本知识前提下,确认系统满足最低配置要求,包括使用的操作系统版本,例如Ubuntu或CentOS,以及...