更多内容请访问:
http://www.mikameng.com
简介:
Hadoop是Apache开源组织的一个并行分布式计算开源框架,借助hadoop框架程序员很容易的实现大规模计算机并行分布式计算。hadoop主要包含MapReduce和HDFS,
MapReduce是基于Google MapReduce论文的开源java实现,
map就是将任务分解,然后交给大规模计算机集群去运算,reduce负责合并计算结果。
HDFS: 基于google GFS分布式文件系统论文的开源实现,是hadoop底层存储组件。
环境: RedHat as 5
配置机器:
namenode:10.0.0.114, 机器名: mika
datanode: 10.0.0.115 机器名: c1
-
配置JDK
下载linux jdk安装包: http://download.oracle.com/otn-pub/java/jdk/6u25-b06/jdk-6u25-linux-i586.bin
,
提升bin权限: $ sudo chmod +x jdk-6u25-linux-i586.bin
安装bin文件 $ ./jdk-6u25-linux-i586.bin, 确认后安装即可。
设置java运行环境变量, 我的jdk安装在opt下
$ sudo vi /etc/profile 添加下面的设置:
JAVA_HOME="/opt/jdk1.6.0_25"
PATH=$JAVA_HOME/bin:$PATH
CALSSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export
JAVA_HOME
export PATH
export CALSSPATH
修改保存,然后输入source /etc/profile 激活修改后的java环境变量。
2. 修改hosts文件
name节点,可以通过机器名访问data节点, 添加如下内容:
10.0.0.114 mika
10.0.0.115 c1
data节点,c1添加如下内容:
10.0.0.114 mika
10.0.0.115 c1
3. 设置ssh实现免密码登录
redhat 默认是安装ssh的, 如果没有请先安装ssh服务。
在name节点 生成ssh key,
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa 生成密钥对,
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
复杂公钥到authorized_keys文件
scp命令将公钥拷贝到c1数据节点:
$ scp ~/.ssh/authorized_keys c1:/~/.ssh
测试name节点无密码登录c1机器: ssh c1, 出现欢迎登录,配置成功。
4. 配置hadoop
下载最新hadoop最新稳定发行版: http://www.apache.org/dyn/closer.cgi/hadoop/common/
,
解压后修改conf/hadoop-env.sh内的JAVA_HOME,修改为/opt/opt/jdk1.6.0_25
输入命令 bin/hadoop 出现命令使用说明
接下来配置完全分布式集群,所有机器的hadoop安装路径相同:
-
修改core-site.xml文件:
XML语言
:
<?xml-stylesheet type="text/xsl"
href="configuration.xsl"?>
<configuration>
<property>
<name>
fs.default.name
</name>
<value>
hdfs://mika:9000
</value>
</property>
<property>
<name>
hadoop.tmp.dir
</name>
<value>
/opt/hadoop/tmp
</value>
</property>
</configuration>
注意: 需要更改hadoop.tmp.dir默认的指向, 默认指向tmp目录下,
有可能会出现其他问,有时候会出现发现不了datanode的问题。
-
修改hdfs-site.xml 文件:
XML语言
:
<?xml version=”1.0″?>
<?xml-stylesheet
type=”text/xsl” href=”configuration.xsl”?>
<configuration>
<property>
<name>
dfs.replication
</name>
<value>
1
</value>
</property>
</configuration>
-
修改mapred-site.xml
XML语言
<?xml
version="1.0"?>
<?xml-stylesheet type="text/xsl"
href="configuration.xsl"?>
<configuration>
<property>
<name>
mapred.job.tracker
</name>
<value>
mika:9001
</value>
</property>
</configuration>
修改masters: 添加一行内容 mika
修改slaves: 添加一行内容 c1
然后scp将masters,slaves, core-site.xml, hdfs-site.xml, mapred-site.xml 复制到
c1节点
bin/hadoop namenode -format
bin/start-dfs.sh
-
在分配的JobTracker上, 启动mapred
bin/start-mapred.sh
JPS查看namenode服务是否启动
浏览NameNode和JobTracker的网络接口,它们的地址默认为:
备注:
如果新加一个节点c2(10.0.0.116), 该如何设置?
在name节点的hosts里加入 10.0.0.116 c2, 然后在name和c2节点的slaves里添加c2
,然后在c2节点里启动输入:
bin/start-daemon start datanode
bin/start-daemon start tasktrack
固定链接:
http://www.mikameng.com/?p=289
分享到:
相关推荐
Hadoop分布式集群搭建的知识点包括以下几个主要方面: 1. 环境准备与组件安装: - 首先,需要准备一个网络中各个节点之间能够通信的环境,确保集群中的每台计算机都能够通过SSH无密码登录,这对于集群中的各个服务...
基于Hadoop分布式集群搭建方法研究的知识点包含以下几个方面: 1. Hadoop简介与大数据分布式基础架构: Hadoop是一个开源的大数据平台,由Apache软件基金会支持。它包括HDFS(Hadoop分布式文件系统)和MapReduce...
Hadoop 分布式集群搭建.md
《Hadoop分布式集群搭建》 在大数据处理领域,Hadoop是一个关键的开源框架,它提供了在分布式计算环境中存储和处理海量数据的能力。本教程将详细阐述如何在多台机器上搭建一个Hadoop分布式集群。 首先,搭建Hadoop...
(85条消息) Hadoop分布式集群搭建(完整版)_卡布达暴龙兽的博客-CSDN博客_hadoop分布式集群搭建.htm
总结一下,本资源包提供了搭建Hadoop分布式集群所需的两个基础组件:JDK 8和Hadoop 2.7.5。在实际操作中,你需要在每个节点上安装JDK,配置Hadoop环境,调整相关配置文件以适应你的集群需求,最后启动服务,确保集群...
Hadoop分布式集群初次启动 ...本文档详细讲解了Hadoop分布式集群的初次启动过程,包括配置SSH免密登录、格式化HDFS、启动HDFS和YARN模块等步骤,为读者提供了一个详细的Hadoop分布式集群搭建指南。
Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程 按照文档中的操作步骤,一步步操作就可以完全实现hadoop2.2.0版本的完全分布式集群搭建过程
本人搭建hadoop完全分布式集群时,写的文档,内有详细步骤,
在构建Hadoop分布式集群的过程中,配置文件的正确设置至关重要,因为它们定义了集群中各节点间的通信方式和系统的行为。以下是对标题和描述中提到的关键知识点的详细解释: 1. **Hadoop**: Hadoop是由Apache基金会...
### Hadoop完全分布式集群搭建详解 #### 一、前言及环境准备 在开始搭建Hadoop完全分布式集群之前,需要确保已经准备好相应的硬件资源和软件环境。本篇指南旨在为初学者提供一个全面且详细的Hadoop集群搭建流程,...
### 基于VM+CentOS+hadoop2.7搭建Hadoop完全分布式集群的知识点解析 #### 一、概述 本文旨在详细介绍如何使用VMware Workstation(简称VM)结合CentOS 6.5操作系统来搭建Hadoop 2.7的完全分布式集群。此文档是根据...
Hadoop分布式集群搭建过程中IP配置,包括单机伪分布式和多台机器集群搭建。同时包括VBox linux虚拟机网卡配置
自己整理的Hadoop环境的一些安装,和一些简单的使用,其中包括Hadoop、hbase、hive、mysql、zookeeper、Kafka、flume。都是一些简单的安装步骤和使用,只在自己的虚拟机(Linux centOS7)上使用测试过。按照步骤一步...
hadoop2.8.1分布式集群搭建,有详细的图文,只要按照操作一步步的来,基本上都能完成搭建
Hadoop 3.0 分布式集群搭建(HA)详细文档 本资源摘要信息主要介绍了 Hadoop 3.0 分布式集群搭建的详细步骤和要求,从搭建前的准备工作到集群的安装和配置,涵盖了主机规划、软件规划、用户规划、数据目录规划、...