- 浏览: 403693 次
- 性别:
- 来自: 南京
文章分类
最新评论
-
qiuqinjun:
你好,项目的文献能否打包学习下呢
java定时任务管理实现 -
panghaoyu:
实现一个智能提示功能需要ajax、数据库、jsp/php、算法 ...
使用jQuery Autocomplete(自动完成)插件 -
CommonAccount:
我的showModalDialog() 传对象参数,在子窗口用 ...
JS中showModalDialog (模态窗口)详细使用 -
wyfn18:
very good
使用jQuery Autocomplete(自动完成)插件 -
jiangqingtian:
xiexie
使用jQuery Autocomplete(自动完成)插件
Hadoop(quick start)快速入门
目的 • 先决条件 o 支持平台 o 所需软件 o 安装软件 • 下载 • 运行Hadoop集群的准备工作 • 单机模式的操作方法 • 伪分布式模式的操作方法 o 配置 o 免密码ssh设置 o 执行 • 完全分布式模式的操作方法 目的 这篇文档是帮助你快速完成单机上的Hadoop安装与使用以便你对Hadoop分布式文件系统(HDFS)和Map-Reduce框架有所体会,比如在HDFS上运行示例程序或简单作业等。 要安装hadoop还需先安装其他文件,ssh,java等。 先决条件 支持平台 • GNU/Linux是产品开发和运行的平台。 Hadoop已在有2000个节点的GNU/Linux主机组成的集群系统上得到验证。 • Win32平台是作为开发平台支持的。由于分布式操作尚未在Win32平台上充分测试,所以还不作为一个生产平台被支持。 所需软件 Linux和Windows所需软件包括: 1. JavaTM1.5.x,必须安装,建议选择Sun公司发行的Java版本。 2. ssh 必须安装并且保证 sshd一直运行,以便用Hadoop 脚本管理远端Hadoop守护进程。 Windows下的附加软件需求 1. Cygwin - 提供上述软件之外的shell支持。 安装软件 如果你的集群尚未安装所需软件,你得首先安装它们。 以Ubuntu Linux为例: $ sudo apt-get install ssh $ sudo apt-get install rsync 在Windows平台上,如果安装cygwin时未安装全部所需软件,则需启动cyqwin安装管理器安装如下软件包: • openssh - Net 类 下载 为了获取Hadoop的发行版,从Apache的某个镜像服务器上下载最近的 稳定发行版。 运行Hadoop集群的准备工作 解压所下载的Hadoop发行版。编辑 conf/hadoop-env.sh文件,至少需要将JAVA_HOME设置为Java安装根路径。 尝试如下命令: $ bin/hadoop 将会显示hadoop 脚本的使用文档。 现在你可以用以下三种支持的模式中的一种启动Hadoop集群: • 单机模式 • 伪分布式模式 • 完全分布式模式 单机模式的操作方法 默认情况下,Hadoop被配置成以非分布式模式运行的一个独立Java进程。这对调试非常有帮助。 下面的实例将已解压的 conf 目录拷贝作为输入,查找并显示匹配给定正则表达式的条目。输出写入到指定的output目录。 $ mkdir input $ cp conf/*.xml input $ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+' $ cat output/* 伪分布式模式的操作方法 Hadoop可以在单节点上以所谓的伪分布式模式运行,此时每一个Hadoop守护进程都作为一个独立的Java进程运行。 配置 使用如下的 conf/hadoop-site.xml: <configuration> <property> <name>fs.default.name</name> <value>localhost:9000</value> </property> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> 免密码ssh设置 现在确认能否不输入口令就用ssh登录localhost: $ ssh localhost 如果不输入口令就无法用ssh登陆localhost,执行下面的命令: $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys 执行 格式化一个新的分布式文件系统: $ bin/hadoop namenode -format 启动Hadoop守护进程: $ bin/start-all.sh Hadoop守护进程的日志写入到 ${HADOOP_LOG_DIR} 目录 (默认是 ${HADOOP_HOME}/logs). 浏览NameNode和JobTracker的网络接口,它们的地址默认为: • NameNode - http://localhost:50070/ • JobTracker - http://localhost:50030/ 将输入文件拷贝到分布式文件系统: $ bin/hadoop fs -put conf input 运行发行版提供的示例程序: $ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+' 查看输出文件: 将输出文件从分布式文件系统拷贝到本地文件系统查看: $ bin/hadoop fs -get output output $ cat output/* 或者 在分布式文件系统上查看输出文件: $ bin/hadoop fs -cat output/* 完成全部操作后,停止守护进程: $ bin/stop-all.sh Hadoop集群搭建 • 目的 • 先决条件 • 安装 • 配置 o 配置文件 o 集群配置 配置Hadoop守护进程的运行环境 配置Hadoop守护进程的运行参数 Slaves 日志 • Hadoop的机架感知 • 启动Hadoop • 停止Hadoop 目的 本文描述了如何安装、配置和管理有实际意义的Hadoop集群,其规模可从几个节点的小集群到几千个节点的超大集群。 如果你希望在单机上安装Hadoop玩玩,从这里能找到相关细节。 先决条件 1. 确保在你集群中的每个节点上都安装了所有必需软件。 2. 获取Hadoop软件包。 安装 安装Hadoop集群通常要将安装软件解压到集群内的所有机器上。 通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker。这些机器是masters。余下的机器即作为DataNode也作为TaskTracker。这些机器是slaves。 我们用HADOOP_HOME指代安装的根路径。通常,集群里的所有机器的HADOOP_HOME路径相同。 配置 接下来的几节描述了如何配置Hadoop集群。 配置文件 对Hadoop的配置通过conf/目录下的两个重要配置文件完成: 1. hadoop-default.xml - 只读的默认配置。 2. hadoop-site.xml - 集群特有的配置。 要了解更多关于这些配置文件如何影响Hadoop框架的细节,请看这里。 此外,通过设置conf/hadoop-env.sh中的变量为集群特有的值,你可以对bin/目录下的Hadoop脚本进行控制。 集群配置 要配置Hadoop集群,你需要设置Hadoop守护进程的运行环境和Hadoop守护进程的运行参数。 Hadoop守护进程指NameNode/DataNode 和JobTracker/TaskTracker。 配置Hadoop守护进程的运行环境 管理员可在conf/hadoop-env.sh脚本内对Hadoop守护进程的运行环境做特别指定。 至少,你得设定JAVA_HOME使之在每一远端节点上都被正确设置。 管理员可以通过配置选项HADOOP_*_OPTS来分别配置各个守护进程。 下表是可以配置的选项。 守护进程 配置选项 NameNode HADOOP_NAMENODE_OPTS DataNode HADOOP_DATANODE_OPTS SecondaryNamenode HADOOP_SECONDARYNAMENODE_OPTS JobTracker HADOOP_JOBTRACKER_OPTS TaskTracker HADOOP_TASKTRACKER_OPTS 例如,配置Namenode时,为了使其能够并行回收垃圾(parallelGC), 要把下面的代码加入到hadoop-env.sh : export HADOOP_NAMENODE_OPTS="-XX:+UseParallelGC ${HADOOP_NAMENODE_OPTS}" 其它可定制的常用参数还包括: • HADOOP_LOG_DIR - 守护进程日志文件的存放目录。如果不存在会被自动创建。 • HADOOP_HEAPSIZE - 最大可用的堆大小,单位为MB。比如,1000MB。 这个参数用于设置hadoop守护进程的堆大小。缺省大小是1000MB。 配置Hadoop守护进程的运行参数 这部分涉及Hadoop集群的重要参数,这些参数在conf/hadoop-site.xml中指定。 参数 取值 备注 fs.default.name NameNode的URI。 hdfs://主机名/ mapred.job.tracker JobTracker的主机(或者IP)和端口。 主机:端口。 dfs.name.dir NameNode持久存储名字空间及事务日志的本地文件系统路径。 当这个值是一个逗号分割的目录列表时,nametable数据将会被复制到所有目录中做冗余备份。 dfs.data.dir DataNode存放块数据的本地文件系统路径,逗号分割的列表。 当这个值是逗号分割的目录列表时,数据将被存储在所有目录下,通常分布在不同设备上。 mapred.system.dir Map/Reduce框架存储系统文件的HDFS路径。比如/hadoop/mapred/system/。 这个路径是默认文件系统(HDFS)下的路径, 须从服务器和客户端上均可访问。 mapred.local.dir 本地文件系统下逗号分割的路径列表,Map/Reduce临时数据存放的地方。 多路径有助于利用磁盘i/o。 mapred.tasktracker.{map|reduce}.tasks.maximum 某一TaskTracker上可运行的最大Map/Reduce任务数,这些任务将同时各自运行。 默认为2(2个map和2个reduce),可依据硬件情况更改。 dfs.hosts/dfs.hosts.exclude 许可/拒绝DataNode列表。 如有必要,用这个文件控制许可的datanode列表。 mapred.hosts/mapred.hosts.exclude 许可/拒绝TaskTracker列表。 如有必要,用这个文件控制许可的TaskTracker列表。 通常,上述参数被标记为 final 以确保它们不被用户应用更改。 现实世界的集群配置 这节罗列在大规模集群上运行sort基准测试(benchmark)时使用到的一些非缺省配置。 • 运行sort900的一些非缺省配置值,sort900即在900个节点的集群上对9TB的数据进行排序: 参数 取值 备注 dfs.block.size 134217728 针对大文件系统,HDFS的块大小取128MB。 dfs.namenode.handler.count 40 启动更多的NameNode服务线程去处理来自大量DataNode的RPC请求。 mapred.reduce.parallel.copies 20 reduce启动更多的并行拷贝器以获取大量map的输出。 mapred.child.java.opts -Xmx512M 为map/reduce子虚拟机使用更大的堆。 fs.inmemory.size.mb 200 为reduce阶段合并map输出所需的内存文件系统分配更多的内存。 io.sort.factor 100 文件排序时更多的流将同时被归并。 io.sort.mb 200 提高排序时的内存上限。 io.file.buffer.size 131072 SequenceFile中用到的读/写缓存大小。 • 运行sort1400和sort2000时需要更新的配置,即在1400个节点上对14TB的数据进行排序和在2000个节点上对20TB的数据进行排序: 参数 取值 备注 mapred.job.tracker.handler.count 60 启用更多的JobTracker服务线程去处理来自大量TaskTracker的RPC请求。 mapred.reduce.parallel.copies 50 tasktracker.http.threads 50 为TaskTracker的Http服务启用更多的工作线程。reduce通过Http服务获取map的中间输出。 mapred.child.java.opts -Xmx1024M 使用更大的堆用于maps/reduces的子虚拟机 Slaves 通常,你选择集群中的一台机器作为NameNode,另外一台不同的机器作为JobTracker。余下的机器即作为DataNode又作为TaskTracker,这些被称之为slaves。 在conf/slaves文件中列出所有slave的主机名或者IP地址,一行一个。 日志 Hadoop使用Apache log4j来记录日志,它由Apache Commons Logging框架来实现。编辑conf/log4j.properties文件可以改变Hadoop守护进程的日志配置(日志格式等)。 历史日志 作业的历史文件集中存放在hadoop.job.history.location,这个也可以是在分布式文件系统下的路径,其默认值为${HADOOP_LOG_DIR}/history。jobtracker的web UI上有历史日志的web UI链接。 历史文件在用户指定的目录hadoop.job.history.user.location也会记录一份,这个配置的缺省值为作业的输出目录。这些文件被存放在指定路径下的“_logs/history/”目录中。因此,默认情况下日志文件会在“mapred.output.dir/_logs/history/”下。如果将hadoop.job.history.user.location指定为值none,系统将不再记录此日志。 用户可使用以下命令在指定路径下查看历史日志汇总 $ bin/hadoop job -history output-dir 这条命令会显示作业的细节信息,失败和终止的任务细节。 关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看 $ bin/hadoop job -history all output-dir 一但全部必要的配置完成,将这些文件分发到所有机器的HADOOP_CONF_DIR路径下,通常是${HADOOP_HOME}/conf。 Hadoop的机架感知 HDFS和Map/Reduce的组件是能够感知机架的。 NameNode和JobTracker通过调用管理员配置模块中的APIresolve来获取集群里每个slave的机架id。该API将slave的DNS名称(或者IP地址)转换成机架id。使用哪个模块是通过配置项topology.node.switch.mapping.impl来指定的。模块的默认实现会调用topology.script.file.name配置项指定的一个的脚本/命令。 如果topology.script.file.name未被设置,对于所有传入的IP地址,模块会返回/default-rack作为机架id。在Map/Reduce部分还有一个额外的配置项mapred.cache.task.levels,该参数决定cache的级数(在网络拓扑中)。例如,如果默认值是2,会建立两级的cache- 一级针对主机(主机 -> 任务的映射)另一级针对机架(机架 -> 任务的映射)。 启动Hadoop 启动Hadoop集群需要启动HDFS集群和Map/Reduce集群。 格式化一个新的分布式文件系统: $ bin/hadoop namenode -format 在分配的NameNode上,运行下面的命令启动HDFS: $ bin/start-dfs.sh bin/start-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动DataNode守护进程。 在分配的JobTracker上,运行下面的命令启动Map/Reduce: $ bin/start-mapred.sh bin/start-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动TaskTracker守护进程。 停止Hadoop 在分配的NameNode上,执行下面的命令停止HDFS: $ bin/stop-dfs.sh bin/stop-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止DataNode守护进程。 在分配的JobTracker上,运行下面的命令停止Map/Reduce: $ bin/stop-mapred.sh bin/stop-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止TaskTracker守护进程。 |
发表评论
-
Ajax Session Timeout处理
2014-07-01 09:57 9416对于session过期跳转的问题,很简单,就是一个过滤器,然 ... -
20非常有用的Java程序片段
2014-01-13 21:54 0下面是20个非常有用的Java程序片段,希望能对你有用。 ... -
20个非常有用的Java程序片段
2014-01-13 21:49 0下面是20个非常有用的Java程序片段,希望能对你有用。 ... -
Spring MVC实现一个控制器写多个方法
2014-01-15 21:12 2011Spring MVC的API: DispatcherSe ... -
使用Eclipse构建Maven的SpringMVC项目
2013-06-21 12:53 1176使用Eclipse构建Maven的SpringMVC项目 ... -
发送Email的实现
2013-06-20 14:37 0package com.huawei.common.emai ... -
dbcp连接操优化
2013-06-02 12:35 0在做struts2、spring网站时,在系统闲置一段时间后, ... -
spring的taskExecutor线程池实现邮件发送
2013-04-26 11:18 0由于项目里涉及到上万人邮件处理,需要用到线程池来提高处理速度 ... -
Java操作json的通用类
2013-04-18 11:05 8648提供一个Java中操作JSON格式的公共类: JS ... -
Java写的数据库连接池
2013-03-03 02:04 1395非常不错的手写的数据库连接池: import j ... -
一个非空校验的Java类
2012-11-28 21:41 0/* * 文件名:DataChecker.java * ... -
由12306.cn谈谈网站性能技术
2012-09-21 00:13 100512306.cn网站挂了,被 ... -
api接口简明,比Apache Common File Upload速度快、稳定性高,无需任何第三方库的上传组建
2012-08-21 23:59 2318fastupload根据RFC 1867文档规范,编写的基于表 ... -
Struts2 json ajax动态显示列表
2012-08-08 00:51 3291关于在Struts2中结合json使用ajax进行动态无 ... -
类似google的分页技术
2012-08-06 09:48 1129仿Baidu,Google查询分页技术实现分析分页 ... -
jvm参数相关
2012-08-02 13:47 1166Eclipse文件夹下有个eclips ... -
定时任务
2012-07-14 13:55 0ScheduleIterator.java import ... -
java定时任务管理实现
2012-07-14 13:48 15313代码清单: ===================== ... -
java定时任务管理
2012-07-14 13:25 30390Quartz Scheduler,定时任务 ... -
List排序的问题
2012-06-25 12:59 11271.对List进行排序可以通过这种方式,实现(implemen ...
相关推荐
本快速入门将带你深入了解Hadoop生态系统的核心组件,包括HDFS、MapReduce、Hive和HBase,并通过集群配置实例让你快速上手。 首先,我们来探讨Hadoop。Hadoop是Apache基金会的一个开源项目,其核心设计思想是分布式...
Apache Hadoop is a widely used distributed data platform. It enables large datasets to be efficiently processed instead of using one large computer to store and process the data. This book will get ...
Hadoop两小时快速入门指南,配合《Hadoop权威指南》第二版的第二章节, 密码去bolg中找吧。 http://blog.csdn.net/xzknet/article/details/8316899
#### 三、Hadoop 2 Quick-Start Guide 内容概览 《Hadoop 2 快速入门指南》是由资深讲师Douglas Eadline撰写的一本实用指南,旨在帮助读者快速掌握Hadoop 2.x的基础知识和技术要点。本书覆盖了以下关键内容: - **...
### Hadoop快速入门介绍 #### 一、Hadoop简介 Hadoop是一款开源软件框架,用于分布式存储和处理大型数据集。它能够在廉价的商用硬件上运行,并且具有高可靠性和可扩展性。Hadoop的核心组件包括HDFS(Hadoop ...
Addison-wesley Data & Analytics Series Get Started Fast with Apache Hadoop 2, YARN, and Today’s Hadoop Ecosystem
Hadoop是一个非常流行的开源分布式存储和计算框架,它允许用户在成百上千的廉价计算机上存储和处理大量的数据集,尤其适用于那些无法在单机上进行处理的大型数据集。Hadoop的主要优势在于它能够扩展到数百台机器组成...
### Hadoop 2快速入门指南知识点详解 #### 一、背景与概念 1. **Apache Hadoop定义**:Hadoop是一种开源软件框架,用于分布式存储和处理大型数据集。它能够在集群环境中运行,并且能够自动处理节点故障问题,提供...
Hadoop, Apache开源的分布式框架。源自Google GFS,BigTable,MapReduce 论文。 == HDFS == HDFS (Hadoop Distributed File System),Hadoop 分布式文件系统。 NameNode,HDFS命名服务器,负责与DataNode文件元信息保存。...
Hadoop入门手册 简单入门Hadoop入门手册 简单入门Hadoop入门手册 简单入门Hadoop入门手册 简单入门
在Hadoop 3快速入门指南中,我们主要探讨的是如何高效地使用这个分布式计算框架进行大数据处理。Hadoop是Apache软件基金会的一个开源项目,它的核心是HDFS(Hadoop Distributed File System)和MapReduce,这两个...
**Hadoop快速入门** 1. **安装Hadoop**:首先,你需要在服务器或本地机器上安装Java运行环境,然后下载Hadoop二进制包,配置环境变量,并根据指导文档进行安装。 2. **配置Hadoop**:修改Hadoop的配置文件(如`...
这个“Hadoop的xmind入门笔记”系列涵盖了从基础概念到高级应用的全面学习路径,旨在帮助初学者快速掌握Hadoop的核心知识。 【Hadoop基础知识】 1. **分布式计算**:Hadoop基于Google的MapReduce编程模型,将大型...
Hadoop的快速入门需要掌握其架构和运行原理。对于初学者来说,理解HDFS、MapReduce、YARN等核心组件的工作方式是关键。此外,了解如何在集群上部署和配置Hadoop,以及如何运行基本的MapReduce作业也是必要的。通过...
HADOOP快速入门及搭建集群环境 HADOOP是一种分布式计算技术,旨在处理大规模数据集,能够将大规模数据处理工作分配到多个计算机节点上,从而提高数据处理速度和效率。本资源旨在指导读者快速入门HADOOP,并搭建集群...
Hadoop 安装 学习 入门教程 Hadoop家族系列文章,主要介绍Hadoop家族产品,常用的项目包括Hadoop, Hive, Pig, HBase, Sqoop, Mahout, Zookeeper, Avro, Ambari, Chukwa,新增加的项目包括,YARN, Hcatalog, Oozie, ...