`

hadoop 2.0 详细配置教程

 
阅读更多
创建账户

使用root登 陆 所有机器后,所有的机器都 创建 hadoop 用 户
useradd hadoop
passwd hadoop

此 时 在 /home/ 下就会生成一个 hadoop 目 录 ,目 录 路径 为 /home/hadoop

创建相关的目录

定 义 需要数据及目 录 的存放路径

定 义 代 码及工具 存放的路径
mkdir -p /home/hadoop/source
mkdir -p /home/hadoop/tools

定 义 数据 节 点存放的路径到跟目 录 下的hadoop文件夹, 这 里是数据 节 点存放目 录 需要有足够的空 间 存放
mkdir -p /hadoop/hdfs
mkdir -p /hadoop/tmp
mkdir -p /hadoop/log
设 置可写权限
chmod -R 777 /hadoop



配置SSH无密码登陆

SSH 无密 码原理简介 :
首先在 hadoop1 上生成一个密 钥对,包括一个公钥和一个私钥,并将公钥复制到所有的 slave(hadoop2-hadoop4) 上。
然后当 master 通 过 SSH 连接 slave 时, slave 就会生成一个随机数并用 master 的公 钥对随机数进行加密,并发送给 master 。
最后 master 收到加密数之后再用私 钥解密,并将解密数回传给 slave , slave 确 认解密数无误之后就允许 master 不 输入密码进行连接了

2 ,具体步 骤(在root用户和hadoop用户登陆情况下执行)
1 、 执行命令 ssh-keygen -t rsa 之后一路回 车,查看刚生成的无密码钥对: cd .ssh 后 执行 ll
2 、把 id_rsa.pub 追加到授权的 key 里面去。 执行命令 cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys
3 、修改权限: 执行 chmod 600 ~/.ssh/authorized_keys


解压目录hadoop
tar zxvf hadoop-2.6.2.tar.gz

创建软连接
cd /home/hadoop
ln -s /home/hadoop/source/hadoop-2.6.2 ./hadoop


源码配置修改

/etc/profile

配置 环境变量: vim /etc/profile
添加
export HADOOP_DEV_HOME=/home/hadoop/hadoop
export PATH=$PATH:$HADOOP_DEV_HOME/bin
export PATH=$PATH:$HADOOP_DEV_HOME/sbin
export HADOOP_MAPARED_HOME=${HADOOP_DEV_HOME}
export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME}
export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME}
export YARN_HOME=${HADOOP_DEV_HOME}
export HADOOP_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop
export HDFS_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop
export YARN_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop


创建并配置hadoop-env.sh

vim /home/hadoop/hadoop/etc/hadoop/hadoop-env.sh
在末尾添加 export JAVA_HOME=/usr/java/jdk1.6.0_27

core-site.xml

在 configuration 节点 里面添加属性

<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.1.201:9000</value>
</property>

添加 httpfs 的 选项
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>192.168.1.201</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>


slave配置

vim /home/hadoop/hadoop/etc/hadoop/slaves
添加 slave 的 IP
192.168.1.202
192.168.1.203
192.168.1.204


配置hdfs-site.xml

vim /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml
添加 节点

<property>
<name>dfs.replication</name>
<value>3</value>
</property>

<property>
<name>dfs.namenode.name.dir</name>
<value>file:/hadoop/hdfs/name</value>
<final>true</final>
</property>

<property>
<name>dfs.federation.nameservice.id</name>
<value>ns1</value>
</property>

<property>
<name>dfs.namenode.backup.address.ns1</name>
<value>192.168.1.201:50100</value>
</property>

<property>
<name>dfs.namenode.backup.http-address.ns1</name>
<value>192.168.1.201:50105</value>
</property>

<property>
<name>dfs.federation.nameservices</name>
<value>ns1</value>
</property>

<property>
<name>dfs.namenode.rpc-address.ns1</name>
<value>192.168.1.201:9000</value>
</property>
<property>
<name>dfs.namenode.rpc-address.ns2</name>
<value>192.168.1.201:9000</value>
</property>

<property>
<name>dfs.namenode.http-address.ns1</name>
<value>192.168.1.201:23001</value>
</property>

<property>
<name>dfs.namenode.http-address.ns2</name>
<value>192.168.1.201:13001</value>
</property>

<property>
<name>dfs.dataname.data.dir</name>
<value>file:/hadoop/hdfs/data</value>
<final>true</final>
</property>

<property>
<name>dfs.namenode.secondary.http-address.ns1</name>
<value>192.168.1.201:23002</value>
</property>

<property>
<name>dfs.namenode.secondary.http-address.ns2</name>
<value>192.168.1.201:23002</value>
</property>

<property>
<name>dfs.namenode.secondary.http-address.ns1</name>
<value>192.168.1.201:23003</value>
</property>

<property>
<name>dfs.namenode.secondary.http-address.ns2</name>
<value>192.168.1.201:23003</value>
</property>


配置yarn-site.xml

添加 节点

<property>
<name>yarn.resourcemanager.address</name>
<value>192.168.1.201:18040</value>
</property>

<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>192.168.1.201:18030</value>
</property>

<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>192.168.1.201:18088</value>
</property>

<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>192.168.1.201:18025</value>
</property>

<property>
<name>yarn.resourcemanager.admin.address</name>
<value>192.168.1.201:18141</value>
</property>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>


配置httpfs-site.xml

同步代码到其他机器

1.同步配置代 码
先在 slaves 的机器上也 创 建
mkdir -p /home/hadoop/source
部署hadoop代 码 , 创 建 软连接 ,然后只要同步修改 过 的etc/hadoop下的配置文件即可
2.同步 /etc/profile
3.同步 /etc/hosts
scp -r /etc/profile root@hadoop2:/etc/profile
scp -r /etc/hosts root@hadoop2:/etc/hosts

其他机器以此操作


Hadoop启动

格式化集群
$HADOOP_PREFIX/bin/hdfs namenode -format <cluster_name>
启动hdfs
执行
sbin/start-dfs.sh
开 启 hadoop dfs服 务    
启动Yarn
开 启 yarn 资 源管理服 务
sbin/start-yarn.sh
启动httpfs
开 启 httpfs 服 务
sbin/httpfs.sh start
使得 对外 可以提高 http 的restful接口服 务
测试
安装结果验证
验证hdfs

在各台机器 执行 jps 看 进程 是否都已 经启动 了

[root@hadoop1 hadoop]# jps
7396 NameNode
24834 Bootstrap
7594 SecondaryNameNode
7681 ResourceManager
32261 Jps

[root@hadoop2 ~]# jps
8966 Jps
31822 DataNode
31935 NodeManager

进程启动 正常

验证 是否可以登 陆
hadoop fs -ls hdfs://192.168.1.201:9000/
hadoop fs -mkdir hdfs://192.168.1.201:9000/testfolder
hadoop fs -copyFromLocal ./xxxx hdfs://192.168.1.201:9000/testfolder
hadoop fs -ls hdfs://192.168.1.201:9000/ testfolder


验证map/reduce

在 master1 上, 创建输入目录 :hadoop fs -mkdir hdfs://192.168.1.201:9000/input
将 /usr/hadoop/hadoop-2.0.1-alpha/ 目 录下的所有 txt 文件复制到 hdfs 分布式文件系 统的目录里,执行以下命令
hadoop fs -put /usr/hadoop/hadoop-2.0.1-alpha/*.txt hdfs://192.168.1.201:9000/input

在 hadoop1 上, 执行 HADOOP 自 带的例子, wordcount 包,命令如下
cd /usr/hadoop/hadoop-2.0.1-alpha/share/hadoop/mapreduce
hadoop jar hadoop-mapreduce-examples-2.0.1-alpha.jar wordcount hdfs://192.168.1.201:9000/input hdfs://192.168.1.201:9000/output

hadoop fs -put /usr/hadoop/hadoop-2.0.1-alpha/*.txt hdfs://192.168.1.201:9000/input

在 hadoop1 上, 查看结果命令如下 :
[root@master1 hadoop]# hadoop fs -ls hdfs://192.168.1.201:9000/output
Found 2 items
-rw-r--r--   2 root supergroup          0 2012-06-29 22:59 hdfs://192.168.1.201:9000/output/_SUCCESS
-rw-r--r--   2 root supergroup       8739 2012-06-29 22:59 hdfs://192.168.1.201:9000/output/part-r-00000

[root@hadoop1 hadoop]# hadoop fs -cat  hdfs://192.168.1.201:9000/output/part-r-00000 即可看到每个 单词的数量

验证httpfs

HTTPFS操作:

OPEN,GETFILESTATUS,LISTSTATUS,GETHOMEDIRECTORY,GETCONTENTSUMMARY,GETFILECHECKSUM,GETDELEGATIONTOKEN,GETFILEBLOCKLOCATIONS,INSTRUMENTATION

GETHOMEDIRECTORY 路径无关,返回根 节点路径
http://192.168.1.201:14000/webhdfs/v1/yxq?op=GETHOMEDIRECTORY&user.name=root

Path: "/user/root"

http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=GETHOMEDIRECTORY&user.name=root

打开 / 下 载一个文件
http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=open&user.name=root

LISTSTATUS 现实目录状态

http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0?op=LISTSTATUS&user.name=root
http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=LISTSTATUS&user.name=root





分享到:
评论

相关推荐

    Hadoop 2.0 详细配置教程 (2).docx

    【Hadoop 2.0 知识点详解】 Hadoop 2.0 是 Apache 开源项目的一个重要版本,它的设计目标是打造一个可扩展、可靠的分布式系统,支持大数据处理。Hadoop 包含多个子项目,如 Hadoop Common、HDFS(Hadoop ...

    Hadoop 2.0集群配置详细教程

    Hadoop是 apache 的开源 项目,开发的主要目的是为了构建可靠,可拓展 scalable ,分布式的系 统, hadoop 是一系列的子工程的 总和,其中包含 1. hadoop common : 为其他项目提供基础设施 2. HDFS :分布式的文件...

    大数据与云计算课程 云计算第三版教程课件含习题 第6章 Hadoop 2.0 大家族(一) 共32页.pptx

    《大数据与云计算课程 云计算第三版教程课件含习题 第6章 Hadoop 2.0 大家族(一)》是一份详细讲解Hadoop 2.0生态系统的教学资源,适合大学生、职场人士以及对云计算和大数据感兴趣的自学者。这份PPT涵盖了从基础...

    云计算第三版精品课程配套PPT课件含习题(31页)第6章 Hadoop 2.0 大家族(二).rar

    6. **Hadoop的安装与配置**:简述Hadoop环境的搭建过程,包括单机模式、伪分布式模式和完全分布式模式的配置。 7. **案例分析**:通过实际案例来展示Hadoop在处理大规模数据时的能力,可能包括日志分析、推荐系统、...

    Hadoop2.2.0安装配置及实例教程入门宝典

    《Hadoop2.2.0安装配置及实例教程入门宝典》 在大数据处理领域,Hadoop是一个不可或缺的工具,其分布式存储和计算能力为企业级数据处理提供了强大的支持。本教程将带你逐步走进Hadoop的世界,从零开始,教你如何在...

    Cloudera Hadoop 5&amp;Hadoop高阶管理及调优课程

    1、Hadoop2.0高阶运维,包括Hadoop节点增加删除、HDFS和YARN的HA实现, HDFS Federation实现等 2、搭建本地Yum部署CDH5的重要组件和优化配置 3、Impala、Oozie和Hue的部署、使用操作及调优 4、Hadoop安全认证及授权...

    hadoop经典实战教程

    - **YARN (Yet Another Resource Negotiator)**:Hadoop 2.0引入的新资源管理框架,使得Hadoop可以支持多种计算框架而不仅仅是MapReduce。 - **Hadoop性能优化**: - **压缩技术**:通过对数据进行压缩,减少网络...

    Hadoop基础架构与历史技术教程

    ### Hadoop基础架构与历史技术教程 #### 一、Hadoop的起源与发展 **1.1 Hadoop的起源** Hadoop项目的诞生可以追溯到2004年,由Doug Cutting和Mike Cafarella在雅虎公司内部开发而成。其设计灵感来源于Google在...

    Hadoop视频教程套餐下载-零基础大数据实战培训教程配文本项目案例

    在本Hadoop视频教程套餐中,我们将会深入探讨大数据处理技术,特别关注Hadoop生态系统中的核心组件,包括HBase、Hadoop2.0 YARN、MapReduce以及Greenplum和Chukwa。这个零基础实战培训教程是为那些希望进入大数据...

    Hadoop在Linux系统上的搭建

    文档`hadoop2.0环境搭建.docx`应该详细介绍了这些过程。 总之,这个教程为初学者提供了一条在Linux系统上部署和使用Hadoop的完整路径,包括必要的软件安装、环境配置、集群设置以及开发工具的集成。对于想要学习...

    hadoop map-reduce turorial

    通过对源代码的详细分析和实际运行测试,用户可以更深入地理解Hadoop Map-Reduce的工作原理,掌握更高级的数据处理技巧。 总之,Hadoop Map-Reduce框架不仅为大数据处理提供了强大的工具,同时也为用户提供了丰富的...

    Centos7.4离线安装CDH5.13.0详细图文教程(含Spark2.0)

    - **核心组件**:CDH5.13.0包括HDFS、YARN、MapReduce、HBase、Hive等核心Hadoop组件,同时集成了Spark2.0这一高性能的数据处理引擎。 - **附加功能**:此外,CDH还提供了Cloudera Manager(用于部署、管理和监控CDH...

    hadoop搭建.docx

    本教程将详细介绍如何在Linux环境下搭建一个高可用(HA)的Hadoop完全分布式集群,主要涉及到HDFS(Hadoop Distributed File System)的HA以及YARN(Yet Another Resource Negotiator)的高可用设置。 1. **HDFS HA**: ...

    hadoop-0.22.0.tar.gz

    接着,解压`hadoop-0.22.0.tar.gz`到一个适当的目录,并根据官方文档或网络上的教程进行配置。这通常涉及修改`conf/hadoop-env.sh`和`conf/core-site.xml`等配置文件,设置Hadoop的环境变量、HDFS的目录结构以及集群...

    hadoop,spark,linux,机器学习,数据挖掘等大数据全套视频.rar

    通过这个视频教程,你可以了解Hadoop的架构、安装配置、数据读写以及简单的数据分析任务。 2. Spark:Spark是另一个大数据处理框架,以其高效、易用和适合复杂数据处理的特性受到广泛关注。与Hadoop的MapReduce相比...

    《Hadoop&Spark;原理、运维、与开发》.pdf

    作者详细分析了Hadoop 1.0版本的应用场景以及2.0版本(YARN)的原理和优势。此外,Hadoop平台上的列存储技术,如RCFile、ORC和Parquet文件格式等,都被逐一介绍,这些都是处理大数据时提高效率的关键技术。 在...

    hadoop练习-mytest.rar

    9. **IDEA集成**:作为一款流行的Java开发环境,IDEA与Hadoop的集成方法可能会被详细讲解,包括配置插件、构建路径等。 通过这个mytest项目,不仅可以深入学习Hadoop的基本概念和操作,还能了解到如何在实际开发中...

    adoop.The.Definitive.Guide.4th.Edition.2015.3

    在第四版中,作者详细介绍了Hadoop的最新发展和改进,包括Hadoop 2.0引入的YARN(Yet Another Resource Negotiator),这是一个资源管理和调度器,它允许Hadoop集群上运行多种计算框架,而不仅仅是MapReduce。...

Global site tag (gtag.js) - Google Analytics