一、系统及版本准备
JDK:jdk-7u2-linux-i586
Hadoop:hadoop-2.7.0
安装目录:
/usr/local/jdk
/usr/local/hadoop
节点及IP(/etc/hosts,注意需要重启网络):
192.168.56.100 os.data0
192.168.56.101 os.data1
192.168.56.102 os.data2
二、创建系统用户组
1.创建hadoop用户及组密码为hadoop
$ sudo su # adduser hadoop
2.sudo用户授权:
root用户下: vi /etc/sudoers
添加:
写道
root ALL=(ALL:ALL) ALL
hadoop ALL=(ALL:ALL) ALL
hadoop ALL=(ALL:ALL) ALL
三、配置双向免密钥登录,参见另外一个博客
四、授权及环境变量设置:
sudo chown -R hadoop:hadoop /usr/local/hadoop
环境变量配置:
sudo vi /etc/profile
末尾追加内容如下:
export JAVA_HOME=/usr/local/jdk export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH #set hadoop environment export HADOOP_INSTALL=/usr/local/hadoop export PATH=$PATH:$HADOOP_INSTALL/bin export PATH=$PATH:$HADOOP_INSTALL/sbin export HADOOP_MAPRED_HOME=$HADOOP_INSTALL export HADOOP_COMMON_HOME=$HADOOP_INSTALL export HADOOP_HDFS_HOME=$HADOOP_INSTALL
刷新生效:
$source /etc/profile
五、分布式配置:
在hadoop中创建几个文件夹:
$cd /usr/local/hadoop /usr/local/hadoop$ mkdir tmp /usr/local/hadoop$ mkdir tmp/dfs /usr/local/hadoop$ mkdir tmp/dfs/data /usr/local/hadoop$ mkdir tmp/dfs/name /usr/local/hadoop$ sudo chown hadoop:hadoop tmp
修改配置文件涉及文件列表如下:
hadoop-env.sh
yarn-env.sh
core-site.xml
hdfs-site.xml
yarn-site.xml
mapred-site.xml
slaves
1.hadoop-env.sh :
/usr/local/hadoop/etc/hadoop$ sudo vi hadoop-env.sh
修改的内容如下:
export JAVA_HOME=/usr/local/jdk
2.yarn-env.sh
内容:
export JAVA_HOME=/usr/local/jdk
3.core-site.xml
内容:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://os.data0:8020</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>hadoop.proxyuser.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.groups</name> <value>*</value> </property> </configuration>
4.hdfs-site.xml
内容:
<configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>os.data0:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration>
5.mapred-site.xml
内容:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>os.data0:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>os.data0:19888</value> </property> </configuration>
6.yarn-site.xml
内容:
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>os.data0:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>os.data0:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>os.data0:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>os.data0:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>os.data0:8088</value> </property> </configuration>
7.slaves
内容:
os.data1 os.data2
把配置的配置文件scp到其他节点上,注意scp不覆盖
六、格式化namenode
/usr/local/hadoop$ bin/hdfs namenode -format
如果碰到错误注意解决即可
七、启动
/usr/local/hadoop$ sbin/start-all.sh
通过jps查看进程即可
相关推荐
这个资源包"Hadoop 2.7.2 (Window版本)"是专为在Windows操作系统上进行大数据开发设计的,它包含了Hadoop在Windows环境下的安装、配置和运行所需的所有组件。 Hadoop的核心由两个主要部分组成:HDFS(Hadoop ...
本文将深入探讨Hadoop 2.7.2的主要组件、功能以及在Linux环境下的安装与使用。 一、Hadoop生态系统概述 Hadoop由两个主要部分组成:Hadoop分布式文件系统(HDFS)和MapReduce。HDFS为大规模数据提供了高容错性和高...
本文将详细介绍这两个组件以及如何在Windows系统下配置Hadoop 2.7.2版本的开发环境。 首先,`hadoop.dll`是Hadoop在Windows平台上的一个动态链接库文件,它包含了Hadoop运行所需的特定功能。由于Hadoop主要设计为在...
在Linux环境下部署Hadoop 2.7.2,首先需要在Window上解压缩“hadoop-2.7.2.rar”文件,然后将解压后的文件复制到Linux服务器上。配置Hadoop环境涉及以下几个关键步骤: 1. **配置环境变量**:在`~/.bashrc`或`~/....
在安装Hadoop 2.7.2时,你需要将这些依赖文件放置在正确的路径下,并根据你的环境变量设置确保能够正确找到它们。例如,`winutils.exe`通常需要放在%HADOOP_HOME%\bin目录下,`hadoop.dll`则应该在系统PATH环境变量...
在Linux系统,特别是CentOS 7 64位环境下,编译开源软件如Hadoop是一项常见的任务,这对于理解和优化Hadoop在本地环境中的运行至关重要。Hadoop 2.7.2是一个稳定版本,包含了分布式存储(HDFS)和计算框架...
hadoop2.7.2安装依赖文件,用于在window下调试hadoop! hadoop2.7.2安装依赖文件,用于在window下调试hadoop hadoop2.7.2安装依赖文件,用于在window下调试hadoop
Hadoop2.7.2LIUNX集群(2)所需JDK1.8.gzHadoop2.7.2LIUNX集群(2)所需JDK1.8.gzHadoop2.7.2LIUNX集群(2)所需JDK1.8.gzHadoop2.7.2LIUNX集群(2)所需JDK1.8.gz
用户可以在这里下载到二进制和源码两种形式的包,用于安装、配置和开发基于Hadoop的应用。 压缩包子文件的文件名称列表中: 1. "hadoop-2.7.2 (1).tar.gz" 这是Hadoop 2.7.2的预编译二进制版本,包含了运行Hadoop所...
伪分布部署是指在单机上模拟分布式环境运行Hadoop的过程,即一个节点既是NameNode也是DataNode,既执行Master角色又执行Slave角色,这为开发者在没有多台机器的情况下也能体验和学习Hadoop的分布式工作原理提供了...
Windows10 环境下编译的Hadoop2.7.2 Windows10 环境下编译的Hadoop2.7.2 Windows10 环境下编译的Hadoop2.7.2
本教程主要讲述了在 Ubuntu 16.04 环境下安装 Hadoop 2.7.1 的步骤,包括单机模式、伪分布式模式和分布式模式三种安装方式。以下是本教程的知识点总结: 1. 安装前的准备工作:创建 hadoop 用户,设置密码,增加...
这个版本的Hadoop在2015年发布,提供了许多改进和新特性,使得它能在各种Linux环境下稳定运行,从而满足企业对大规模数据处理的需求。 一、Hadoop的核心组件 1. HDFS(Hadoop Distributed File System):Hadoop的...
在安装Hadoop 2.7.2时,我们需要遵循以下步骤: 1. **环境准备**:确保操作系统为Linux,因为Hadoop更适合在Linux环境下运行。安装Java开发环境(JDK),Hadoop依赖Java运行。 2. **解压安装包**:使用`unrar`命令...
### Hadoop 2.7.2 HA集群安装详解 #### 一、概述 Hadoop是一个开源软件框架,用于分布式存储和处理大型数据集。本文档将详细介绍如何搭建一个Hadoop 2.7.2版本的高可用(High Availability,简称HA)集群。此集群...
Apache Hadoop 2.7.2 是一个广泛使用的开源框架,专为分布式存储和计算而设计,是大数据处理领域的重要工具。源码包提供了一窥Hadoop内部运作机制的机会,对于开发者、研究者以及想要深入理解Hadoop工作原理的人来说...
我的Java安装在D:\Java,hadoop安装在D:\env\hadoop-2.7.2,材料中的hadoop-2.7.2-win10是配置前的版本,材料中的hadoopbin是工具类,需要替换原文档中的D:\env\hadoop-2.7.2\bin,材料中的hadoop-2.7.2配置完成后是配置...
以上就是在Windows 7环境中安装和配置Hadoop 2.7.2所需的关键步骤,其中hadoop.dll和winutils.exe是两个不可或缺的部分。确保这些文件正确配置并能够被系统识别,是成功运行Hadoop的前提。理解这两个文件的作用以及...
在安装和配置过程中,用户需要注意以下几点: 1. **环境变量配置**:正确设置`HADOOP_HOME`、`PATH`等环境变量,确保`winutils.exe`和`hadoop.dll`能够被系统找到。 2. **JDK要求**:Hadoop运行需要Java ...
在Windows 10环境下编译Hadoop 2.7.2,首先需要确保系统安装了Java Development Kit (JDK) 和 Microsoft Visual Studio(因为Hadoop的部分组件是用C++编写的)。然后,你需要下载Hadoop的源代码,将其解压,并在...