`
ssydxa219
  • 浏览: 622347 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
文章分类
社区版块
存档分类
最新评论

hadoop2.5.0 centOS系列 分布式的安装 部署

 
阅读更多

hadoop以及elasticsearch 还有 memcache 以及rabbitMQ ,N久前自己就已经部署好了hadoop,一直忙于界面制作。网上有好多hadoop2 版本的安装可是自己安装却出现各种问题,不能继续下去,多次尝试后 终于成功了

     首先第一步.设置免密码SSH登陆,这是为了以后使用scp 传输文件方便,直接同步文件与文件夹,而且ssh 随时切换到相应的服务器上  

         先安装好ssh 如果没有安装 那么 按照下面操作 ,这是网上复制的

1.安装启动 ssh

   1、检查linux是否已经按openssh

命令:# rpm -qa |grep openssh如果安装了,就可以看到安装的版本号,否则就没有安装。

2、安装# rpm -ivh openssh-3.5p1-6    

# rpm -ivh openssh-server-3.5p1-6   

 # rpm -ivh openssh-askpass-gnome-3.5p1-6  

 # rpm -ivh openssh-clients-3.5p1-6  

 # rpm -ivh openssh-askpass-3.5p1-6 

3、启动方法方法1:# service sshd start   

 方法2:使用绝对路径执行以下命令:

 # /etc/rc.d/init.d/sshd start  

 或者# /etc/rc.d/sshd start

4、自动启动方法另外,如果想在系统启动时就自动运行该服务,那么需要使用setup命令,

在system service的选项中,选中sshd守护进程即可。 

 chkconfig sshd on

 通过ntsysv 选中sshd服务

也可以通过chkconfig也设置chkconfig -- level 3 sshd on

5、配置ssh配置文件目录:/etc/ssh/sshd_config

  port 22

  安装好了 后,我们开始生成ssh的的公钥 与 私钥

我有四台机器 192.168.1.6  192.168.1.7  192.168.1.8  192.168.1.9  最后6作为主master

所以先ssh登陆到6机器 然后执行下面命令

  ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

scp ~/.ssh/authorized_keys root@192.168.250.195 ~/.ssh/authorized_keys 

下面是以前尝试 时候的截图,参考,可以直接脚本scp 加上管道直接一步完成

 

然后 配置 然后 以后从master 机器使用scp ssh  都不需要输入密码

 然后我们修改并同步hosts属性文件

 vi  /etc/sysconfig/network 分别修改HOSTNAME=master  HOSTNAME=slave1 ....slave2  slave3

下面 修改vi /etc/hosts 文件

192.168.250.196   master
192.168.250.195   slave1
192.168.250.197   slave2
192.168.250.200   slave3

下面 scp同步

 下面我们 下载hadoop然后  在master上 修改好配置文件 然后scp同步到其他slave上即可

  tar -zxf hadoop-2.5.0.tar.gz -C /usr/local/

  cd /usr/local

   ln -s hadoop-2.5.0 hadoop

  配置好环境变量

 vi /etc/profile 

  

export HADOOP_PREFIX="/usr/local/hadoop"
export PATH=$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin
export HADOOP_COMMON_HOME=${HADOOP_PREFIX}
export HADOOP_HDFS_HOME=${HADOOP_PREFIX}
export HADOOP_MAPRED_HOME=${HADOOP_PREFIX}
export HADOOP_YARN_HOME=${HADOOP_PREFIX}

 当然需要前提安装好java环境

  然后进入hadoop目录 cd /usr/local/hadoop 修改

vi /etc/hadoop/yarn-env.sh 还有hadoop-env.sh 导入java环境

export JAVA_HOME=/usr/local/jdk8 如果默认使用 yum 安装的则不需要

然后

修改目录文件夹的core-site.xml

 
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
<description>The name of the default file system.</description>
</property>

 修改hdfs-site.xml  记住是///

 

 

然后下面修改yarn-site.xml

配置yarn 的resourceManger为master

 然后修改mapred-site.xml

默认没有mapred-site.xml文件,copy  mapred-site.xml.template 一份为 mapred-site.xml即可

然后配置 告诉hadoop 其他从节点,这样,只要主节点启动,他会自动启动其他机器上的nameNode dataNode 等等

vi  /usr/local/hadoop/etc/hadoop/slaves

添加以下内容

  OK 基本的全部配置已经完成

下面就是同步该文件夹 到其他各个从主机上即可 因为我们使用ssh免登陆 不需要使用密码

scp -r /usr/local/hadoop root@192.168.250.195:/usr/local/hadoop

scp -r /usr/local/hadoop root@192.168.250.197:/usr/local/hadoop

scp -r /usr/local/hadoop root@192.168.250.200:/usr/local/hadoop

ok

同步好了 后,然后我们开始在主节点 也就是当前的master 的usr/local/hadoop/sbin执行format

hdfs namenode -format

然后依次执行start-dfs.sh 

在执行start-yarn.sh

也可以简单粗暴的直接start-all.sh

然后jps命令就可以查看到hadoop的运行状态了

在从节点上 

也许一些用户发现ResourceManager没有启动 

不过不要担心

只需要在master 下执行

yarn-daemon.sh start nodemanager 即可

ok 我们可以

使用

hadoop dfsadmin -report 查看状态

web界面 master:50070/50030

Ok到此 就完成了

可以使用测试案例 测试一下试试

分享到:
评论

相关推荐

    编译hadoop-2.5.0-cdh5.3.6 + snappy 源码的native包

    本文将详细讲解如何在CentOS 6.5系统上编译Hadoop 2.5.0 - CDH5.3.6与Snappy的源码,以生成适用于该环境的native库。 首先,我们要了解Hadoop的native库是什么。Hadoop的native库是一组C++编译的库,它们提供了与...

    hadoop 2.5.0 编译snappy

    在大数据处理领域,Hadoop是一个不可或缺的开源框架,它提供了分布式存储和计算的能力。而Snappy则是一款高效的压缩和解压缩库,常用于提升数据在Hadoop环境中的传输速度。在Hadoop 2.5.0版本中,为了优化性能,用户...

    hadoop-2.5.0-cdh5.3.1centos6.4本地库

    总的来说,这个“hadoop-2.5.0-cdh5.3.1centos6.4本地库”压缩包是为CentOS 6.4 64位系统优化的Hadoop本地库集合,对于在该环境下运行Hadoop集群至关重要,通过正确的安装和配置,可以显著提升Hadoop在处理大数据...

    搭建hadoop环境.doc

    在本文中,我们将详细介绍如何在 CentOS 6.4 操作系统环境下搭建 Hadoop 2.5.0 全分布式环境。这是一个逐步过程,包括设置多台虚拟机、安装 JDK、配置 Hadoop 环境以及启动集群。 首先,我们需要准备三台能够无密码...

    虚拟机伪分布式安装hadoop的配置

    【虚拟机伪分布式安装Hadoop的配置】 在IT领域,Hadoop是一个开源的分布式计算框架,常用于大数据处理。为了在个人计算机上模拟Hadoop的分布式环境,我们通常会在虚拟机上进行“伪分布式”安装。这个过程允许我们在...

    Hadoop学习之路(三)Hadoop-2.7.5在CentOS-6.7上的编译

    本文档旨在详细介绍如何在CentOS-6.7操作系统上从源代码编译安装Hadoop-2.7.5。Hadoop是一款开源的大数据处理框架,主要由HDFS(分布式文件系统)和MapReduce(并行处理模型)组成,适用于海量数据的存储与计算。...

    基于CentOS7的Hadoop2.7.7集群部署+Hive+Zookeeper+hbase1.x+kylin2.5.0.doc

    在构建大数据处理平台时,Hadoop、Hive、Zookeeper、HBase以及Kylin是关键组件,本教程将详述如何在CentOS7系统上基于Hadoop2.7.7搭建一个分布式集群,并集成Hive1.2.2、Zookeeper3.4.14、HBase1.x和Kylin2.5.0。...

    Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建

    软件方面,需要安装jdk-7u55-linux-x64.rpm、apache-maven-3.1.1-bin.tar、hadoop-2.2.0-src.tar.gz、protobuf-2.5.0.tar.gz、zookeeper-3.4.5.tar.gz和hbase-0.96.2-hadoop2-bin.tar.gz等软件。 Hadoop2.2安装和...

    基于centos的大数据hadoop集群搭建说明文档

    【标题】:基于CentOS的大数据Hadoop集群搭建详解 【描述】:本教程专为初学者设计,详细阐述了如何手动搭建Hadoop集群,步骤详尽,易于理解。 【标签】:Hadoop集群搭建 【正文】: Hadoop是一个开源的分布式...

    hadoop-2.2.0编译安装

    总结,Hadoop的编译和安装过程涉及到多个步骤,包括环境准备、源码修复、编译工具安装、Hadoop源码编译、配置及分布式安装。通过这些步骤,我们可以构建一个适应64位系统的Hadoop集群,实现大数据的高效处理和存储。...

    hadoop编译文档

    Hadoop是一款能够处理大数据的开源软件框架,主要用于分布式存储和处理大规模数据集。为了更好地理解和掌握Hadoop的内部机制,很多开发者会选择从源代码编译Hadoop。本文档将详细介绍如何在CentOS 7.0环境下从源码...

    Amabri 2.4安装HDP2.5(hadoop)

    ### Ambari 2.4 安装 HDP 2.5(Hadoop)知识点解析 #### 一、HDP(Hortonworks Data Platform)概述 **HDP**,即 **Hortonworks Data Platform**,是由美国大数据公司 **Hortonworks** 开发的一款企业级 **Hadoop*...

    Hadoop 编译 64  位本地库 方法

    在IT行业中,Hadoop是一个广泛使用的开源大数据处理框架,它基于Java编程语言并设计用于分布式存储和计算。本文将详细讲解如何在64位系统上编译Hadoop的本地库,以便于在特定环境中优化Hadoop的性能。我们将遵循一个...

    编译hadoop3.3.1所需文件.rar

    5. 编译完成后,你会得到编译好的Hadoop二进制文件,可以部署在你的CentOS 7集群上。 注意,编译Hadoop可能涉及对源代码的定制,例如修改配置选项、优化性能或添加特定功能。在实际操作中,务必阅读官方文档,并...

    ViraPipe:ViraPipe是基于Apache Spark的分布式元基因组分析管道,可用于从NGS数据进行病原体的可扩展检测

    ViraPipe ViraPipe是基于Apache Spark的可扩展并行管道,用于分析计算集群或多核独立计算机上NGS读取数据的元基因组。... 依赖关系:Hadoop-BAM 7.4.0 + Samtools HtsJDK 2.5.0 + bwa的Java绑定(J

Global site tag (gtag.js) - Google Analytics