Hadoop 2.6安装文档
版本说明:hadoop 2.6 linux-64位
Zookeeper3.4.6
jdk 1.7.0_75
1、Ssh无密码
ssh-keygen
vimauthorized_keys
把每台机子上的id_rsa.pub内容拷贝到authorized_keys
Scp到其它机器上
2、jdk安装
解压目录
jdk环境变量
3、Zookeeper安装
详见zookeeper安装文档
4、必要目录创建
NameNode数据目录 /data/nn
DataNode数据目录 /data/dn
JournalNode数据目录 /data/jn
Yarn数据目录 /data/yarn/local
5、修改配置文件
Core-site.xml
Hdfs-site.xml
Slaves
Yarn-site.xml
注:修改对数,详见附件
6、配置环境变量
exportJAVA_HOME=/usr/local/jdk1.7.0_75
exportJRE_HOME=/usr/local/jdk1.7.0_75/jre
exportPATH=$PATH:/usr/local/jdk1.7.0_75/bin
exportCLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
exportZOOKEEPER_HOME=/usr/local/zookeeper-3.4.6
PATH=$ZOOKEEPER_HOME/bin:$PATH
exportHADOOP_HOME=/usr/local/hadoop-2.6.0
exportPATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
7、启动集群
启动zookeeper
格式化zookeeper
启动journalnode
sbin/hadoop-daemon.shstart journalnode
格式化Namenode
启动格式化的namenode
sbin/hadoop-daemon.sh startnamenode
同步namenode
bin/hdfs namenode–bootstrapStandby
启动同步的namenode
sbin/hadoop-daemon.shstart namenode
启动datanode
hdfsdatanode >null 2>&1 &
启动resourcemanager
yarnresourcemanager >null 2>&1 &
启动nodemanager
yarnnodemanager >null 2>&1 &
启动zkfc
附件
Core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://mycluster</value>
</property>
<property>
<name>ha.zookeeper.quorum</name>
<value>database:2181,spark02:2181,spark03:2181,spark04:2181,spark05:2181</value>
</property>
</configuration>
Slave
yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<description>Listof directories to store localized files in.</description>
<name>yarn.nodemanager.local-dirs</name>
<value>file:///data/yarn/local</value>
</property>
<property>
<description>Classpathfor typical applications.</description>
<name>yarn.application.classpath</name>
<value>
$HADOOP_CONF_DIR,
$HADOOP_COMMON_HOME/*,$HADOOP_COMMON_HOME/lib/*,
$HADOOP_HDFS_HOME/*,$HADOOP_HDFS_HOME/lib/*,
$HADOOP_MAPRED_HOME/*,$HADOOP_MAPRED_HOME/lib/*,
$HADOOP_YARN_HOME/*,$HADOOP_YARN_HOME/lib/*
</value>
</property>
<property>
<name>yarn.resourcemanager.ha.enabled</name>
<value>true</value>
</property>
<property>
<name>yarn.resourcemanager.ha.rm-ids</name>
<value>rm1,rm2</value>
</property>
<property>
<name>yarn.resourcemanager.hostname.rm1</name>
<value>database</value>
</property>
<property>
<name>yarn.resourcemanager.hostname.rm2</name>
<value>spark02</value>
</property>
<property>
<name>yarn.resourcemanager.recovery.enabled</name>
<value>true</value>
</property>
<property>
<name>yarn.resourcemanager.store.class</name>
<value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
</property>
<property>
<name>yarn.resourcemanager.zk-address</name>
<value>database:2181,spark02:2181,spark03:2181,spark04:2181,spark05:2181</value>
<description>For multiple zk services, separate themwith comma</description>
</property>
<property>
<name>yarn.resourcemanager.cluster-id</name>
<value>yarn-ha</value>
</property>
</configuration>
Hdfs-site.xml
<configuration>
<property>
<name>dfs.permissions.superusergroup</name>
<value>hadoop</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///data/nn</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///data/dn</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.webhdfs.user.provider.user.pattern</name>
<value>^[A-Za-z0-9_][A-Za-z0-9._-]*[$]?$</value>
</property>
<property>
<name>dfs.nameservices</name>
<value>mycluster</value>
</property>
<property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn1</name>
<value>database:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn2</name>
<value>spark02:8020</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn1</name>
<value>database:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn2</name>
<value>spark02:50070</value>
</property>
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://database:8485;spark02:8485;spark03:8485/mycluster</value>
</property>
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/data/jn</value>
</property>
<property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property>
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.domain.socket.path</name>
<value>${hadoop.tmp.dir}/sockets/dn._PORT</value>
</property>
<property>
<name>dfs.client.read.shortcircuit.streams.cache.size</name>
<value>1000</value>
</property>
<property>
<name>dfs.client.read.shortcircuit.streams.cache.expiry.ms</name>
<value>10000</value>
</property>
<property>
<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
<value>true</value>
</property>
</configuration>
分享到:
相关推荐
Hadoop2.6+HA+Zookeeper3.4.6+Hbase1.0.0 集群安装详细步骤
在这个名为“hadoop2.6.rar”的压缩包中,我们很显然获取的是Hadoop 2.6.0版本的安装资源。Hadoop 2.6.0是在Hadoop 2.x系列中的一个重要版本,它在Hadoop 2.4.x的基础上进行了一系列的优化和改进,提供了更高的稳定...
### Hadoop 2.6 集群配置详解 ...总结,Hadoop 2.6 集群配置涉及多个环节,从环境准备、基础配置到高级特性(如HA)的启用都需要仔细规划和实施。通过以上步骤,可以构建出一个稳定且功能齐全的Hadoop集群。
在搭建Hadoop 2.6集群环境时,我们需要关注几个关键组件:HDFS(Hadoop Distributed File System)的高可用性(HA)以及YARN(Yet Another Resource Negotiator)。这个过程涉及多台虚拟机的配置,包括安装操作系统...
### Hadoop 2.6.4 HA 集群搭建详解 #### 一、概述 在当前的大数据处理环境中,Hadoop作为一个强大的分布式计算框架,其稳定性和可用性至关重要。Hadoop 2.x版本引入了High Availability (HA)机制来确保系统在遇到...
Hadoop 2.6版本是一个重要的里程碑,引入了许多增强功能和优化,提高了稳定性和性能。在Windows 7环境下配置和远程调试Hadoop集群是一项挑战,但通过正确的方法和步骤,可以成功实现这一目标。以下是关于这个主题的...
在IT行业中,分布式存储和计算框架是大数据处理的关键技术,Hadoop 2.6.2、HBase 1.1.2以及Hive 1.2.1是这些领域的核心组件,它们共同构建了一个高可用性(HA)的生态系统。这里我们将深入探讨这三个组件以及它们在...
在这个`hadoop-2.6-configuration`压缩包中,我们可以找到针对Hadoop 2.6多集群环境的配置文件示例,帮助管理员设置和管理分布式存储和计算系统。 1. **Hadoop的配置体系结构**: Hadoop的配置基于Java的...
Hadoop是Apache软件基金...以上是对"Hadoop 2.6.0 安装包"的相关知识点的详细介绍,包括Hadoop的基本概念、主要组件、新特性、安装配置流程以及Hadoop生态系统的其他组件。这些知识对于理解和操作Hadoop集群至关重要。
本文档详细介绍了如何在RHEL 7.5 x64环境下部署HDP-2.6.4大数据集群,包括系统环境初始化、Ambari管理器安装、HDP集群安装、NameNodeHA和YARNHA配置等关键步骤。通过遵循这些步骤,可以构建一个稳定、高效的大数据...
export SPARK_HOME=/usr/tools/spark-1.6.1-bin-hadoop2.6 export PATH=$PATH:$SPARK_HOME/bin ``` 3. **使环境变量生效**: ```bash source /etc/profile ``` 4. **Spark配置**: - 进入Spark的`conf`目录...
Ambari 支持多种 Hadoop 组件和服务,包括但不限于 Hadoop 2.6(带有 YARN 和 HA)、Hive、Spark、Kafka、Flume、Sqoop、Oozie 和 Zookeeper。 #### 二、为什么选择 Ambari 1. **集成性**: - Ambari 集成了主流...
本文将详细解析如何在多机环境中部署Hadoop的HDFS(Hadoop Distributed File System)高可用性(HA)、Federation以及YARN(Yet Another Resource Negotiator)组件。我们将按照步骤进行,确保每个环节的正确设置和...
Hadoop作为大数据处理的核心框架,对于初学者和专业开发人员来说,理解并掌握其安装配置至关重要。Hadoop提供了多种运行模式,包括本地模式、伪分布式模式以及集群模式,每种模式都有其特定的应用场景。本文将重点...
通过上述步骤,我们可以成功搭建一个基于Hadoop 2.6的HDFS HA集群。这种架构不仅可以有效避免单点故障的问题,还能显著提高系统的稳定性和可靠性。对于需要处理大规模数据的企业来说,HDFS HA是一种非常实用且必要的...
**2.6 Intel® Manager for Hadoop——控制面板(C)** 控制面板是Intel® Manager for Hadoop的核心部分,用户可以通过控制面板执行大多数管理任务。 #### 三、配置向导 **3.1 配置新的集群** 配置向导帮助用户...
- **JLine版本冲突**:如果使用的是Hadoop 2.6.x版本,可能会遇到JLine的版本冲突问题。解决方案是将Hive中的`jline-2.12.jar`替换到Hadoop的lib目录下。 - **Metastore问题**:有时可能会遇到metastore相关的错误,...
为了便于系统管理员和Hadoop用户安装和管理Cloudera CDH,文档详细介绍了从机器规划到各组件的安装与配置过程。接下来,我将详细阐述这些知识点。 ### 第1章 系统概述 #### 1.1 机器规划 机器规划是实施Hadoop集群...
以上内容涵盖了大数据领域的关键技术点,包括但不限于分布式计算框架、资源调度、数据分析步骤、Hive、Hadoop HA、Hadoop联邦机制、Storm、Kafka以及HBase等,旨在帮助读者全面了解大数据领域的核心技术及其实现细节...
6.5.2 在Windows系统中安装Hadoop 208 6.6 HDFS使用 215 6.6.1 HDFS 常用命令 215 6.6.2 HDFS 基准测试 219 6.7 HBase安装使用 219 6.7.1 HBase的安装配置 219 6.7.2 HBase的执行 220 6.7.3 Hbase编程实例 221 6.8 ...