一、core-site.xml
hadoop用户为fulndon:fulndon namenode结点为master
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131702</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/fulndon/hadoop-2.7.1/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>hadoop.proxyuser.fulndon.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.fulndon.groups</name>
<value>*</value>
</property>
二、hdfs-site.xml
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/fulndon/hadoop-2.7.1/hdfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/fulndon/hadoop-2.7.1/hdfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
三、mapred-site.xml.template
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
四、yarn-site.xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
五、向hadoop-env.sh和yarn-env.sh中追加jdk路径
// echo export JAVA_HOME=$JAVA_HOME >> yarn-env.sh
echo export JAVA_HOME=$JAVA_HOME | tee -a yarn-env.sh -a hadoop-env.sh
分享到:
相关推荐
【Hadoop 2.7.1 集群搭建】\n\n对于初学者来说,了解和搭建Hadoop集群是进入大数据领域的基础步骤。Hadoop是一个开源的分布式计算框架,它允许在廉价硬件上处理海量数据。在这个文档中,我们将详细讲解如何在Linux ...
首先,我们来看标题——"基于虚拟机集群hadoop2.7.1配置文件"。这意味着我们要在多台虚拟机上建立一个Hadoop集群,使用的是Hadoop 2.7.1版本。这个版本是Hadoop的稳定版本,包含了YARN(Yet Another Resource ...
### Hadoop2.7.1 + HBase1.3.5 在 CentOS6.5 虚拟机环境下的安装配置指南 #### 准备工作 为了确保 Hadoop 和 HBase 的顺利安装,需要提前做好一系列准备工作,包括安装 VMware、设置虚拟机、配置 CentOS 操作系统等...
在搭建Hadoop 2.7.1伪分布式集群的过程中,首先需要在VMware Workstation上安装CentOS 6.5并创建用户hadoop。以下是详细步骤: 1. **VMware Tools安装**: VMware Tools是VMware提供的一个增强虚拟硬件与宿主机...
- **配置Hadoop环境变量**:修改Hadoop目录下etc/hadoop/hadoop-env.sh文件,设置JAVA_HOME。同时,在/etc/profile文件末尾添加Hadoop安装目录到系统环境变量PATH中。 - **验证Hadoop环境**:通过输入`hadoop ...
通过以上步骤,我们成功地在三台虚拟机上搭建了一个完全分布式的Hadoop集群。该集群不仅可以用于数据存储,还能支持复杂的大数据分析任务。对于初学者而言,了解并掌握这些基本的配置和安装步骤是非常重要的,因为...
在本文中,我们将详细介绍如何使用VMware 16搭建一个基于CentOS 7的Hadoop集群,以及相关的系统配置和Java环境的安装。首先,我们需要三台虚拟机,分别命名为master、slaves01和slaves02,分配不同的IP地址和MAC地址...
确保这三台虚拟机能够互相 ping 通,这是集群搭建的基础。 **1.2 配置 IP 映射关系** 编辑 `/etc/hosts` 文件,增加以下内容: ``` 192.168.44.1 master 192.168.44.2 node1 192.168.44.3 node2 ``` 这样可以...
2. **配置Hadoop的核心配置文件**:编辑`hadoop-2.7.1/etc/hadoop/core-site.xml`和`hadoop-2.7.1/etc/hadoop/hdfs-site.xml`,确保指定了正确的NameNode和DataNode的位置以及其他必要参数。 3. **格式化NameNode**...
- **版本选择**:本文档推荐使用Hadoop2.7.1。 - **用户一致性**:建议所有虚拟机使用相同的用户名(例如“hadoop”),以便简化后续配置过程。 **2. JDK安装** - **命令行安装**:`sudo apt-get install default-...
- **修改Hadoop配置文件**:编辑`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`等关键配置文件,设置Hadoop的工作目录、存储位置等参数。 - **格式化HDFS文件系统**:使用`hdfs namenode -format`命令初始化...
- **VMware虚拟机配置**:在虚拟化平台上安装和配置操作系统,以测试集群环境。包括下载安装VMware、创建虚拟机、安装操作系统等步骤。 ### 命令行工具 在配置过程中,文档提到了多个常用的命令行工具和命令: - ...
这个预配置的虚拟机使得开发者或学习者能够快速进入Hadoop的学习和实践,而无需花费时间在基础环境搭建上。在使用过程中,可以根据个人需求进一步定制Hadoop集群的配置,例如增加更多节点、调整内存分配等。此外,...
- **配置Spark**:通过修改`spark-env.sh`和`core-site.xml`等配置文件来设置集群模式、内存分配等参数。 #### Spark核心API - **RDD**: - **创建**:从HDFS、本地文件系统等位置加载数据。 - **转换操作**:如...