- 浏览: 41183 次
- 性别:
- 来自: 深圳
最新评论
-
Wuaner:
体积小巧,文字却很清晰,不错的版本。谢谢lz分享!
Hadoop权威指南(第二版)pdf中文版 -
laserdance:
command type python3.2
在Linux下安装Python
作者:JesseZhang (CNZQS|JesseZhang)
博客地址:http://www.cnzqs.com
要点:
1、计数器
1.1内置计数器
1.2用户定义的Java计数器
1.3用户定义的Streaming计数器
2、排序
2.1准备
2.2部分排序
2.3全排序
2.4辅助排序
3、连接
3.1map端连接
3.2reduce端连接
4、边数据分布
3.1利用JobConf来配置作业
3.2分布式缓存
5、MapReduce库类
============================================
1、 计数器
计数器主要用来收集系统信息和作业运行信息,用于知道作业成功、失败等情况,比日志更便利进行分析。
1.1内置计数器
Hadoop内置的计数器,记录作业执行情况和记录情况。包括MapReduce框架、文件系统、作业计数三大类。
计数器由关联任务维护,定期传递给tasktracker,再由tasktracker传给jobtracker。
计数器可以被全局聚集。内置的作业计数器实际上由jobtracker维护,不必在整个网络中传递。
当一个作业执行成功后,计数器的值才是完整可靠的。
1.2用户定义的Java计数器
MapReduce框架将跨所有map和reduce聚集这些计数器,并在作业结束时产生一个最终结果。
多个计数器由一个Java枚举类型来定义,以便对计数器分组。
通过reporter输出和写入。在0.20.2之上版本中使用context.getCounter(groupName, counterName) 来获取计数器配置并设置。
动态计数器
动态计数器,incrCounter(String group,String counter,long amount)
组名称,计数器名称,计数值
尽量为计数器提供易读的名称,以Java枚举类型为名创建一个属性文件,用下划线分割嵌套类型。属性文件与包含该枚举类型的顶级类放在同一目录。
CounterGroupName = Air Temperature Records //只有一个该属性,就是组的显示名称
MISSING.name = Missing //字段名称.name 格式
MALFORMED.name = malformed
可以采用本地化机制
获取计数器:
两种获取计数器的方法:
1、 hadoop job –counter 指令
2、 通过java API,在作业运行完成后,计数器稳定后获取。 使用job.getCounters()得到Counters
可能的问题:无法获取到有效的RunningJob对象,原因可能是:
1、 错误的指定了jobid
2、 内存中仅保留最新的100个作业(可以在mapred.jobtracker.completeuserjobs.maximun控制)
1.3用户定义的Streaming计数器
Streaming MapReduce程序通过向标准错误流发送一行特殊格式的信息来增加计数器的值,格式如下:
Reporter:counter:group,counter,amount
Python用法:
Sys.stderr.write(“reporter:counter:Temperature,Missing,1\n”)
状态信息:
Reporter:status:mesage
2、 排序
排序是MapReduce的核心技术。
2.1准备
每个map创建并输出一个块压缩的顺序文件。
2.2部分排序
控制排列顺序
1、 若属性mapred.output.key.comparator.class设置,则使用该类实例
2、 否则,键必须是WritableComparable的子类。
应用:基于分区的MapFile查找技术。
2.3全排序
只有一个分区可以实现,但无法利用并行的优势。
替代方案:
1、 创建一系列排好序的文件
2、 串联这些文件,
3、 生成一个全局排序的文件
思路:使用一个partitioner来描述全局排序的输出。
关键点在于如何划分各个分区。尽量使各分区的记录数相等。
1、 可以写一个MapReduce程序来计算各个范围数据的分布,用来做评估。但性能较低
2、 可以通过对键空间进行采样,获取键的近似分布。
Hadoop内置了采样器,不需要自己编写。
Input Sampler类实现了Sampler接口,getSampler方法,返回一系列的样本键。
通常不直接由客户端调用,而是由InputSampler类的静态方法writePartitionFile()调用,目的是创建一个顺序文件来存储定义分区的键。
顺序文件供TotalOrderPartitioner使用,为排序作业创建分区。
2.4辅助排序
主要解决对键所对应的值的排序。
1、 定义包括自然键和自然值的组合键
2、 键的comparator根据组合键对记录进行排序,即同时利用自然键和自然值进行排序
3、 针对组合键的comparator和分组comparator在进行分区和分组时均只考虑自然键
3、 连接
连接操作的具体实现技术取决于数据集的规模和分区方式。
1、 如果一个数据集很大,一个数据集很小,则将集合分发到集群中每一个节点,从而实现连接
2、 对两个数据集都很大,则需要根据数据的组织方式,来决定是在map端连接还是在reduce端连接。
3.1map端连接
在两个大规模输入数据集之间的map端连接会在数据到达map函数之前就执行连接操作。
3.2reduce端连接
Reduce端连接并不要求输入数据集符合特定结构,因而reduce端连接比ap端连接更为常用。但由于两个数据集均需经过MapReduce的shuffle过程,所以reduce端连接的效率往往更低一些。
基本思路:mapper为各个记录标记源,并且使用连接健作为map输出键,使键相同的记录放在同一个reducer中。
主要技术有:
多输出:MultipleInputs
辅助排序:
4、 边数据分布
“边数据”(side data)是作业所需的额外的只读数据,以辅助处理主数据集。
3.1利用JobConf来配置作业
如果只需向任务传递少量元数据则非常有用。如果想获取任务的值,只需覆盖Mapper或Reducer类的configure()方法,并调用传入JobConf对象的getter方法即可。
3.2分布式缓存
Hadoop的分布式缓存拷贝机制,它能够在任务运行过程中及时将文件和存档复制到任务节点以供使用。为了节约网络带宽,在每一个作业中,各个文件通常只需复制到一个节点一次。
缓存的容量是有限的,默认10G,可以在local.cache.size进行配置
工作机制:
1、 用户启动一个作业,hadoop将由-files 和 –archieves选项所指定的文件复制到jobtracker的文件系统中。
2、 在任务运行之前,tasktracker将文件从jobtracker的文件系统中复制到本地磁盘—缓存—使任务能够访问文件。
Tasktracker为缓存中的文件维护一个计数器统计使用情况,如果计数器为0,则清除。
分布式缓存的API:DistributedCache API
通过GenericOptionsParser间接使用分布式缓存。
方法:addCachedFile() 和 addCacheArchive() 方法告诉分布式缓存在HDFS中的位置。
获取缓存中的有效文件的列表:
方法:getLocalCachedFiles() 和 getLocalCacheArchives() 返回一个指向本地文件路径对象数组。
5、 MapReduce库类
1、 ChainMapper、ChainReducer
2、 FieldSelectionMapReduce
3、 IntSumRecuder LongSumReducer
4、 InverseMapper
5、 TokenCounterMapper
6、 RegexMapper
发表评论
-
Hadoop正式发布1.0版本
2011-12-30 23:46 991作者:JesseZhang (CNZQS|JesseZh ... -
hadoop运行报错: java.lang.ClassNotFoundException解决方法
2011-12-11 23:10 2431作者:JesseZhang (CNZQS|JesseZh ... -
网友分享的《Hadoop实战》中文版 pdf
2011-12-08 20:50 2114作者:JesseZhang (CNZQS ... -
《权威指南》笔记十 管理Hadoop
2011-12-07 00:29 1653作者:JesseZhang (CNZQS|JesseZh ... -
《权威指南》笔记九 构建Hadoop集群
2011-12-05 22:03 1609作者:JesseZhang (CNZQS|JesseZh ... -
《权威指南》笔记七 MapReduce的类型和格式
2011-12-04 00:30 1731作者:JesseZhang (CNZQS|JesseZh ... -
Google三大论文中文版 pdf
2011-11-30 11:43 1903作者:JesseZhang (CNZQS|Jess ... -
Hadoop的五个典型应用场景
2011-11-08 11:18 1696本文为转载,原始地址为:http://blog.nosq ... -
Hadoop权威指南(第二版)pdf中文版
2011-11-03 11:29 2886今天终于找到 hadoop权威指南第二版的中文pdf版本 ... -
利用Ant构建Hadoop高效开发环境
2011-10-23 23:10 934最近Hadoop的研究中,都是利用Mockito ... -
chp6_MapReduce工作机制_20111016
2011-10-16 19:42 1045MapReduce工作机制 1. ... -
chp5_MapReduce应用开发_20111011
2011-10-16 16:43 945MapReduce应用开发 1. ... -
hadoop的应用(摘自itpub论坛)
2011-09-23 22:44 1087在itpub的hadoop论坛中看到一则hadoop的应用说明 ... -
Hadoop的Namenode的容灾处理
2011-08-17 21:48 1657Hadoop的namenode是关键节点,虽然业务尽量单一,减 ... -
HDFS系统学习笔记
2011-08-14 23:19 1066HDFS系统 1. 读 ... -
hadoop开发环境配置(伪分布)
2011-08-14 10:44 1018Hadoop开发环境 安装插件 0.20.0 ... -
Hadoop安装总结
2011-08-13 13:07 870Hadoop安装总结 安装JDK 1 ... -
Hadoop及子项目介绍
2011-08-13 12:26 1541Hadoop及子项目介绍 H ... -
Google的三大基石
2011-07-20 13:58 1085Google的三大基石,也是云计算的几个重点论文的来源: ...
相关推荐
《MapReduce 权威指南》深入解析了MapReduce这一编程模型在大数据处理中的应用,尤其在Hadoop平台上的实现。MapReduce模型以其简洁的设计,却能处理复杂的分布式计算任务,尤其是面对大规模数据集时,展现出强大的...
结合案例讲解mr重要知识点1.1 多表连接1.2 mr各组件之间数据传递1.3 mr中压缩设置1.4 多个job之间有序执行1.5 自定义outputFormat
MapReduce高级特性包括计数器、排序和数据集连接等,这些特性能够进一步提升数据处理的效率和灵活性。 首先来看计数器。在MapReduce任务中,计数器用于追踪和记录任务执行过程中发生的各种事件的数量,从而帮助...
8. **版本更新**:《Hadoop权威指南4》相较于早期版本,可能包含了Hadoop的新特性和改进,例如YARN的引入、HDFS的优化、安全性的增强等。这些更新对于跟踪Hadoop的最新进展至关重要。 9. **最佳实践**:书中通常会...
《Hadoop权威指南》第三版是一本深度剖析Hadoop生态系统的经典著作,旨在帮助读者从基础知识到高级技术全面掌握这个大数据处理平台。Hadoop作为开源的分布式计算框架,以其高可扩展性和容错性,成为了大数据时代的...
《Hadoop权威指南》中文版是全面了解和深入学习Hadoop技术的重要参考资料,它涵盖了Hadoop生态系统中的核心组件以及相关的分布式计算概念。这本书详细解析了Hadoop的设计原理、架构、安装配置、操作维护以及实际应用...
《Hadoop权威指南》是一本深入探讨大数据处理和分布式计算技术的经典著作,尤其对Hadoop生态系统的核心组件进行了详尽的阐述。这本书对于理解Hadoop集群、MapReduce编程模型以及HBase分布式数据库有着极大的帮助。接...
《Hadoop权威指南》是大数据领域的一本经典著作,它深入浅出地介绍了Apache Hadoop这一开源分布式计算框架。Hadoop是由Doug Cutting和Mike Cafarella共同创建,最初是为了支持Google的MapReduce计算模型和Google ...
mapreduce笔记
《Hadoop权威指南(第4版)(修订版)》是一本深入探讨大数据存储与分析的重量级书籍,针对Hadoop生态系统提供了全面而详尽的指导。这本书不仅包含了中英文双语版本,还附带了源代码,使得读者可以更加直观地理解和实践...
《Hive权威指南》是一本深入探讨Hive技术的书籍,专为大数据处理和分析而设计。Hive是建立在Hadoop生态系统上的一个数据仓库工具,它允许通过SQL-like语言(HQL)对大规模分布式数据集进行查询和管理。这本书为读者...
《Hadoop权威指南》第四版是Hadoop领域的经典著作,由Tom White撰写,该书深入浅出地介绍了Hadoop生态系统的核心技术和应用场景。这本书对于想要理解、学习和掌握Hadoop技术的人来说,具有极高的参考价值。 Hadoop...
MapReduce的特性;如何构建Hadoop集群,如何管理Hadoop;Pig简介;Hbase简介;Hive简介;ZooKeeper简介;开源工具Sqoop,最后还提供了丰富的案例分析。 本书是Hadoop权威参考,程序员可从中探索如何分析海量数据集...
《HADOOP权威指南》第三版是一本全面深入解析Hadoop生态系统的经典之作,由知名的IT专家撰写,旨在为读者提供最全面、最权威的Hadoop学习资源。这本书以其详尽的内容、清晰的结构和实用的示例,深受广大开发者和数据...
总结来说,《Hadoop权威指南中文版》是一本全面介绍Hadoop生态系统及相关技术的书籍,它不仅包括了Hadoop的核心技术HDFS、MapReduce,还涵盖了Hive、HBase等数据库技术,以及在云计算环境中的应用。书中内容对Java...
### Hadoop权威指南第三版知识点总结 #### 一、Hadoop概述 - **定义与背景**:Hadoop是一个能够对大量数据进行分布式处理的软件框架。它由Apache基金会开发维护,旨在提供高可靠性、高效性及可扩展性的数据处理...
总的来说,《Hadoop权威指南》是一本不可多得的大数据学习资料,无论你是想了解Hadoop的基本概念,还是希望深入研究Hadoop的高级特性,都能从中受益匪浅。书中的书签功能更是让学习变得更加高效,你可以轻松地找到...
《Hadoop权威指南》是Hadoop领域的经典著作,第四版更是涵盖了Hadoop生态系统中的最新发展和技术。这本书深入浅出地介绍了分布式计算的概念,以及如何利用Hadoop进行大规模数据处理。以下将详细介绍其中的关键知识点...