hadoop以及elasticsearch 还有 memcache 以及rabbitMQ ,N久前自己就已经部署好了hadoop,一直忙于界面制作。网上有好多hadoop2 版本的安装可是自己安装却出现各种问题,不能继续下去,多次尝试后 终于成功了
首先第一步.设置免密码SSH登陆,这是为了以后使用scp 传输文件方便,直接同步文件与文件夹,而且ssh 随时切换到相应的服务器上
先安装好ssh 如果没有安装 那么 按照下面操作 ,这是网上复制的
1.安装启动 ssh
1、检查linux是否已经按openssh
命令:# rpm -qa |grep openssh如果安装了,就可以看到安装的版本号,否则就没有安装。
2、安装# rpm -ivh openssh-3.5p1-6
# rpm -ivh openssh-server-3.5p1-6
# rpm -ivh openssh-askpass-gnome-3.5p1-6
# rpm -ivh openssh-clients-3.5p1-6
# rpm -ivh openssh-askpass-3.5p1-6
3、启动方法方法1:# service sshd start
方法2:使用绝对路径执行以下命令:
# /etc/rc.d/init.d/sshd start
或者# /etc/rc.d/sshd start
4、自动启动方法另外,如果想在系统启动时就自动运行该服务,那么需要使用setup命令,
在system service的选项中,选中sshd守护进程即可。
chkconfig sshd on
通过ntsysv 选中sshd服务
也可以通过chkconfig也设置chkconfig -- level 3 sshd on
5、配置ssh配置文件目录:/etc/ssh/sshd_config
port 22
安装好了 后,我们开始生成ssh的的公钥 与 私钥
我有四台机器 192.168.1.6 192.168.1.7 192.168.1.8 192.168.1.9 最后6作为主master
所以先ssh登陆到6机器 然后执行下面命令
ssh
-keygen -t dsa -P
''
-f ~/.
ssh
/id_dsa
cat
~/.
ssh
/id_dsa.pub >> ~/.
ssh
/authorized_keys
scp ~/.ssh/authorized_keys root@192.168.250.195 ~/.ssh/authorized_keys
下面是以前尝试 时候的截图,参考,可以直接脚本scp 加上管道直接一步完成
然后 配置 然后 以后从master 机器使用scp ssh 都不需要输入密码
然后我们修改并同步hosts属性文件
vi /etc/sysconfig/network 分别修改HOSTNAME=master HOSTNAME=slave1 ....slave2 slave3
下面 修改vi /etc/hosts 文件
192.168.250.196 master
192.168.250.195 slave1
192.168.250.197 slave2
192.168.250.200 slave3
下面 scp同步
下面我们 下载hadoop然后 在master上 修改好配置文件 然后scp同步到其他slave上即可
tar
-zxf hadoop-2.5.0.
tar
.gz -C /usr/
local
/
cd
/usr/
local
ln
-s hadoop-2.5.0 hadoop
配置好环境变量
vi /etc/profile
export HADOOP_PREFIX="/usr/local/hadoop" export PATH=$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin export HADOOP_COMMON_HOME=${HADOOP_PREFIX} export HADOOP_HDFS_HOME=${HADOOP_PREFIX} export HADOOP_MAPRED_HOME=${HADOOP_PREFIX} export HADOOP_YARN_HOME=${HADOOP_PREFIX}
当然需要前提安装好java环境
然后进入hadoop目录 cd /usr/local/hadoop 修改
vi /etc/hadoop/yarn-env.sh 还有hadoop-env.sh 导入java环境
export JAVA_HOME=/usr/local/jdk8 如果默认使用 yum 安装的则不需要
然后
修改目录文件夹的core-site.xml
<property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> <description>The name of the default file system.</description> </property>
修改hdfs-site.xml 记住是///
然后下面修改yarn-site.xml
配置yarn 的resourceManger为master
然后修改mapred-site.xml
默认没有mapred-site.xml文件,copy mapred-site.xml.template 一份为 mapred-site.xml即可
然后配置 告诉hadoop 其他从节点,这样,只要主节点启动,他会自动启动其他机器上的nameNode dataNode 等等
vi /usr/local/hadoop/etc/hadoop/slaves
添加以下内容
OK 基本的全部配置已经完成
下面就是同步该文件夹 到其他各个从主机上即可 因为我们使用ssh免登陆 不需要使用密码
scp -r /usr/local/hadoop root@192.168.250.195:/usr/local/hadoop
scp -r /usr/local/hadoop root@192.168.250.197:/usr/local/hadoop
scp -r /usr/local/hadoop root@192.168.250.200:/usr/local/hadoop
ok
同步好了 后,然后我们开始在主节点 也就是当前的master 的usr/local/hadoop/sbin执行format
hdfs namenode -format
然后依次执行start-dfs.sh
在执行start-yarn.sh
也可以简单粗暴的直接start-all.sh
然后jps命令就可以查看到hadoop的运行状态了
在从节点上
也许一些用户发现ResourceManager没有启动
不过不要担心
只需要在master 下执行
yarn-daemon.sh start nodemanager 即可
ok 我们可以
使用
hadoop dfsadmin -report 查看状态
web界面 master:50070/50030
Ok到此 就完成了
可以使用测试案例 测试一下试试
相关推荐
本文将详细讲解如何在CentOS 6.5系统上编译Hadoop 2.5.0 - CDH5.3.6与Snappy的源码,以生成适用于该环境的native库。 首先,我们要了解Hadoop的native库是什么。Hadoop的native库是一组C++编译的库,它们提供了与...
在大数据处理领域,Hadoop是一个不可或缺的开源框架,它提供了分布式存储和计算的能力。而Snappy则是一款高效的压缩和解压缩库,常用于提升数据在Hadoop环境中的传输速度。在Hadoop 2.5.0版本中,为了优化性能,用户...
总的来说,这个“hadoop-2.5.0-cdh5.3.1centos6.4本地库”压缩包是为CentOS 6.4 64位系统优化的Hadoop本地库集合,对于在该环境下运行Hadoop集群至关重要,通过正确的安装和配置,可以显著提升Hadoop在处理大数据...
在本文中,我们将详细介绍如何在 CentOS 6.4 操作系统环境下搭建 Hadoop 2.5.0 全分布式环境。这是一个逐步过程,包括设置多台虚拟机、安装 JDK、配置 Hadoop 环境以及启动集群。 首先,我们需要准备三台能够无密码...
【虚拟机伪分布式安装Hadoop的配置】 在IT领域,Hadoop是一个开源的分布式计算框架,常用于大数据处理。为了在个人计算机上模拟Hadoop的分布式环境,我们通常会在虚拟机上进行“伪分布式”安装。这个过程允许我们在...
本文档旨在详细介绍如何在CentOS-6.7操作系统上从源代码编译安装Hadoop-2.7.5。Hadoop是一款开源的大数据处理框架,主要由HDFS(分布式文件系统)和MapReduce(并行处理模型)组成,适用于海量数据的存储与计算。...
在构建大数据处理平台时,Hadoop、Hive、Zookeeper、HBase以及Kylin是关键组件,本教程将详述如何在CentOS7系统上基于Hadoop2.7.7搭建一个分布式集群,并集成Hive1.2.2、Zookeeper3.4.14、HBase1.x和Kylin2.5.0。...
软件方面,需要安装jdk-7u55-linux-x64.rpm、apache-maven-3.1.1-bin.tar、hadoop-2.2.0-src.tar.gz、protobuf-2.5.0.tar.gz、zookeeper-3.4.5.tar.gz和hbase-0.96.2-hadoop2-bin.tar.gz等软件。 Hadoop2.2安装和...
【标题】:基于CentOS的大数据Hadoop集群搭建详解 【描述】:本教程专为初学者设计,详细阐述了如何手动搭建Hadoop集群,步骤详尽,易于理解。 【标签】:Hadoop集群搭建 【正文】: Hadoop是一个开源的分布式...
总结,Hadoop的编译和安装过程涉及到多个步骤,包括环境准备、源码修复、编译工具安装、Hadoop源码编译、配置及分布式安装。通过这些步骤,我们可以构建一个适应64位系统的Hadoop集群,实现大数据的高效处理和存储。...
Hadoop是一款能够处理大数据的开源软件框架,主要用于分布式存储和处理大规模数据集。为了更好地理解和掌握Hadoop的内部机制,很多开发者会选择从源代码编译Hadoop。本文档将详细介绍如何在CentOS 7.0环境下从源码...
### Ambari 2.4 安装 HDP 2.5(Hadoop)知识点解析 #### 一、HDP(Hortonworks Data Platform)概述 **HDP**,即 **Hortonworks Data Platform**,是由美国大数据公司 **Hortonworks** 开发的一款企业级 **Hadoop*...
在IT行业中,Hadoop是一个广泛使用的开源大数据处理框架,它基于Java编程语言并设计用于分布式存储和计算。本文将详细讲解如何在64位系统上编译Hadoop的本地库,以便于在特定环境中优化Hadoop的性能。我们将遵循一个...
5. 编译完成后,你会得到编译好的Hadoop二进制文件,可以部署在你的CentOS 7集群上。 注意,编译Hadoop可能涉及对源代码的定制,例如修改配置选项、优化性能或添加特定功能。在实际操作中,务必阅读官方文档,并...
ViraPipe ViraPipe是基于Apache Spark的可扩展并行管道,用于分析计算集群或多核独立计算机上NGS读取数据的元基因组。... 依赖关系:Hadoop-BAM 7.4.0 + Samtools HtsJDK 2.5.0 + bwa的Java绑定(J