`
smarthhl
  • 浏览: 28811 次
社区版块
存档分类
最新评论

Hadoop2.6 Ha 安装

 
阅读更多

Hadoop 2.6安装文档

版本说明:hadoop 2.6 linux-64位

Zookeeper3.4.6 jdk 1.7.0_75

1、Ssh无密码

ssh-keygen

vimauthorized_keys

把每台机子上的id_rsa.pub内容拷贝到authorized_keys

Scp到其它机器上

2、jdk安装

解压目录

jdk环境变量

3、Zookeeper安装

详见zookeeper安装文档

4、必要目录创建

NameNode数据目录 /data/nn

DataNode数据目录 /data/dn

JournalNode数据目录 /data/jn

Yarn数据目录 /data/yarn/local

5、修改配置文件

Core-site.xml

Hdfs-site.xml

Slaves

Yarn-site.xml

注:修改对数,详见附件

6、配置环境变量

exportJAVA_HOME=/usr/local/jdk1.7.0_75

exportJRE_HOME=/usr/local/jdk1.7.0_75/jre

exportPATH=$PATH:/usr/local/jdk1.7.0_75/bin

exportCLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

exportZOOKEEPER_HOME=/usr/local/zookeeper-3.4.6

PATH=$ZOOKEEPER_HOME/bin:$PATH

exportHADOOP_HOME=/usr/local/hadoop-2.6.0

exportPATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

7、启动集群

启动zookeeper

ZkServer.shstart

格式化zookeeper

bin/hdfszkfc –formatZK

启动journalnode

sbin/hadoop-daemon.shstart journalnode

格式化Namenode

bin/hdfsnamenode -format

启动格式化的namenode

sbin/hadoop-daemon.sh startnamenode

同步namenode

bin/hdfs namenode–bootstrapStandby

启动同步的namenode

sbin/hadoop-daemon.shstart namenode

启动datanode

hdfsdatanode >null 2>&1 &

启动resourcemanager

yarnresourcemanager >null 2>&1 &

启动nodemanager

yarnnodemanager >null 2>&1 &

启动zkfc

hdfszkfc >null 2>&1 &

附件

Core-site.xml

<configuration>

 <property>

    <name>fs.defaultFS</name>

    <value>hdfs://mycluster</value>

  </property>

<property>

<name>ha.zookeeper.quorum</name>

<value>database:2181,spark02:2181,spark03:2181,spark04:2181,spark05:2181</value>

</property>

</configuration>


Slave

spark03

spark04

spark05


yarn-site.xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>

<property>

<description>Listof directories to store localized files in.</description>

<name>yarn.nodemanager.local-dirs</name>

<value>file:///data/yarn/local</value>

</property>

<property>

<description>Classpathfor typical applications.</description>

<name>yarn.application.classpath</name>

<value>

$HADOOP_CONF_DIR,

$HADOOP_COMMON_HOME/*,$HADOOP_COMMON_HOME/lib/*,

$HADOOP_HDFS_HOME/*,$HADOOP_HDFS_HOME/lib/*,

$HADOOP_MAPRED_HOME/*,$HADOOP_MAPRED_HOME/lib/*,

$HADOOP_YARN_HOME/*,$HADOOP_YARN_HOME/lib/*

</value>

</property>

<property>

<name>yarn.resourcemanager.ha.enabled</name>

<value>true</value>

</property>

<property>

<name>yarn.resourcemanager.ha.rm-ids</name>

<value>rm1,rm2</value>

</property>

<property>

<name>yarn.resourcemanager.hostname.rm1</name>

<value>database</value>

</property>

<property>

<name>yarn.resourcemanager.hostname.rm2</name>

<value>spark02</value>

</property>

<property>

<name>yarn.resourcemanager.recovery.enabled</name>

<value>true</value>

</property>

<property>

<name>yarn.resourcemanager.store.class</name>

<value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>

</property>

<property>

<name>yarn.resourcemanager.zk-address</name>

<value>database:2181,spark02:2181,spark03:2181,spark04:2181,spark05:2181</value>

<description>For multiple zk services, separate themwith comma</description>

</property>

<property>

<name>yarn.resourcemanager.cluster-id</name>

<value>yarn-ha</value>

</property>

</configuration>

Hdfs-site.xml

<configuration>
<property>
<name>dfs.permissions.superusergroup</name>
<value>hadoop</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///data/nn</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///data/dn</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.webhdfs.user.provider.user.pattern</name>
<value>^[A-Za-z0-9_][A-Za-z0-9._-]*[$]?$</value>
</property>
<property>
<name>dfs.nameservices</name>
<value>mycluster</value>
</property>
<property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn1</name>
<value>database:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn2</name>
<value>spark02:8020</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn1</name>
<value>database:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn2</name>
<value>spark02:50070</value>
</property>
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://database:8485;spark02:8485;spark03:8485/mycluster</value>
</property>
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/data/jn</value>
</property>
<property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property>
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property> 
<name>dfs.domain.socket.path</name>  
<value>${hadoop.tmp.dir}/sockets/dn._PORT</value> 
</property>
<property>
<name>dfs.client.read.shortcircuit.streams.cache.size</name>
<value>1000</value>
</property>
<property>
<name>dfs.client.read.shortcircuit.streams.cache.expiry.ms</name>
<value>10000</value>
</property>
<property>
<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
<value>true</value>
</property>
</configuration>



分享到:
评论

相关推荐

    Hadoop2.6+HA+Zookeeper3.4.6+Hbase1.0.0 集群安装详细步骤

    Hadoop2.6+HA+Zookeeper3.4.6+Hbase1.0.0 集群安装详细步骤

    hadoop2.6.rar

    在这个名为“hadoop2.6.rar”的压缩包中,我们很显然获取的是Hadoop 2.6.0版本的安装资源。Hadoop 2.6.0是在Hadoop 2.x系列中的一个重要版本,它在Hadoop 2.4.x的基础上进行了一系列的优化和改进,提供了更高的稳定...

    hadoop2.6集群配置

    ### Hadoop 2.6 集群配置详解 ...总结,Hadoop 2.6 集群配置涉及多个环节,从环境准备、基础配置到高级特性(如HA)的启用都需要仔细规划和实施。通过以上步骤,可以构建出一个稳定且功能齐全的Hadoop集群。

    Hadoop2.6集群环境搭建(HDFS HA+YARN)

    在搭建Hadoop 2.6集群环境时,我们需要关注几个关键组件:HDFS(Hadoop Distributed File System)的高可用性(HA)以及YARN(Yet Another Resource Negotiator)。这个过程涉及多台虚拟机的配置,包括安装操作系统...

    hadoop2.6.4-ha集群搭建

    ### Hadoop 2.6.4 HA 集群搭建详解 #### 一、概述 在当前的大数据处理环境中,Hadoop作为一个强大的分布式计算框架,其稳定性和可用性至关重要。Hadoop 2.x版本引入了High Availability (HA)机制来确保系统在遇到...

    hadoop2.6(x64)Win7上远程调试hadoop 集群

    Hadoop 2.6版本是一个重要的里程碑,引入了许多增强功能和优化,提高了稳定性和性能。在Windows 7环境下配置和远程调试Hadoop集群是一项挑战,但通过正确的方法和步骤,可以成功实现这一目标。以下是关于这个主题的...

    Hadoop2.6.2、Hbase1.1.2 HA

    在IT行业中,分布式存储和计算框架是大数据处理的关键技术,Hadoop 2.6.2、HBase 1.1.2以及Hive 1.2.1是这些领域的核心组件,它们共同构建了一个高可用性(HA)的生态系统。这里我们将深入探讨这三个组件以及它们在...

    hadoop-2.6-configuration:hadoop 2.6 多集群配置文件

    在这个`hadoop-2.6-configuration`压缩包中,我们可以找到针对Hadoop 2.6多集群环境的配置文件示例,帮助管理员设置和管理分布式存储和计算系统。 1. **Hadoop的配置体系结构**: Hadoop的配置基于Java的...

    hadoop 2.6.0 安装包

    Hadoop是Apache软件基金...以上是对"Hadoop 2.6.0 安装包"的相关知识点的详细介绍,包括Hadoop的基本概念、主要组件、新特性、安装配置流程以及Hadoop生态系统的其他组件。这些知识对于理解和操作Hadoop集群至关重要。

    Hadoop集群HDP-2.6.4的部署

    本文档详细介绍了如何在RHEL 7.5 x64环境下部署HDP-2.6.4大数据集群,包括系统环境初始化、Ambari管理器安装、HDP集群安装、NameNodeHA和YARNHA配置等关键步骤。通过遵循这些步骤,可以构建一个稳定、高效的大数据...

    spark 高可用安装文档

    export SPARK_HOME=/usr/tools/spark-1.6.1-bin-hadoop2.6 export PATH=$PATH:$SPARK_HOME/bin ``` 3. **使环境变量生效**: ```bash source /etc/profile ``` 4. **Spark配置**: - 进入Spark的`conf`目录...

    hadoop ambari简介,为什么选择ambari

    Ambari 支持多种 Hadoop 组件和服务,包括但不限于 Hadoop 2.6(带有 YARN 和 HA)、Hive、Spark、Kafka、Flume、Sqoop、Oozie 和 Zookeeper。 #### 二、为什么选择 Ambari 1. **集成性**: - Ambari 集成了主流...

    11-Hadoop部署多机HDFS+HA+Federation+YARN1

    本文将详细解析如何在多机环境中部署Hadoop的HDFS(Hadoop Distributed File System)高可用性(HA)、Federation以及YARN(Yet Another Resource Negotiator)组件。我们将按照步骤进行,确保每个环节的正确设置和...

    第3章hadoop伪分布式环境的搭建.docx

    Hadoop作为大数据处理的核心框架,对于初学者和专业开发人员来说,理解并掌握其安装配置至关重要。Hadoop提供了多种运行模式,包括本地模式、伪分布式模式以及集群模式,每种模式都有其特定的应用场景。本文将重点...

    hdfs的高可用搭建

    通过上述步骤,我们可以成功搭建一个基于Hadoop 2.6的HDFS HA集群。这种架构不仅可以有效避免单点故障的问题,还能显著提高系统的稳定性和可靠性。对于需要处理大规模数据的企业来说,HDFS HA是一种非常实用且必要的...

    英特尔Hadoop发行版 2.2 管理手册

    **2.6 Intel® Manager for Hadoop——控制面板(C)** 控制面板是Intel® Manager for Hadoop的核心部分,用户可以通过控制面板执行大多数管理任务。 #### 三、配置向导 **3.1 配置新的集群** 配置向导帮助用户...

    HIVE HA高可用性及详细使用

    - **JLine版本冲突**:如果使用的是Hadoop 2.6.x版本,可能会遇到JLine的版本冲突问题。解决方案是将Hive中的`jline-2.12.jar`替换到Hadoop的lib目录下。 - **Metastore问题**:有时可能会遇到metastore相关的错误,...

    Cloudera CDH 安装和配置文档

    为了便于系统管理员和Hadoop用户安装和管理Cloudera CDH,文档详细介绍了从机器规划到各组件的安装与配置过程。接下来,我将详细阐述这些知识点。 ### 第1章 系统概述 #### 1.1 机器规划 机器规划是实施Hadoop集群...

    hmyjsmst.docx

    以上内容涵盖了大数据领域的关键技术点,包括但不限于分布式计算框架、资源调度、数据分析步骤、Hive、Hadoop HA、Hadoop联邦机制、Storm、Kafka以及HBase等,旨在帮助读者全面了解大数据领域的核心技术及其实现细节...

    云计算第二版

    6.5.2 在Windows系统中安装Hadoop 208 6.6 HDFS使用 215 6.6.1 HDFS 常用命令 215 6.6.2 HDFS 基准测试 219 6.7 HBase安装使用 219 6.7.1 HBase的安装配置 219 6.7.2 HBase的执行 220 6.7.3 Hbase编程实例 221 6.8 ...

Global site tag (gtag.js) - Google Analytics