- 浏览: 1183386 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (350)
- Ajax研究 (2)
- javascript (22)
- struts (15)
- hibernate (12)
- spring (8)
- 我的生活 (28)
- jsp (2)
- 我的随笔 (84)
- 脑筋急转弯 (1)
- struts2 (2)
- ibatis (1)
- groovy (1)
- json (4)
- flex (20)
- Html Css (5)
- lucene (11)
- solr研究 (2)
- nutch (25)
- ExtJs (3)
- linux (6)
- 正则表达式 (2)
- xml (1)
- jetty (0)
- 多线程 (1)
- hadoop (40)
- mapreduce (5)
- webservice (2)
- 云计算 (8)
- 创业计划 (1)
- android (8)
- jvm内存研究 (1)
- 新闻 (2)
- JPA (1)
- 搜索技术研究 (2)
- perl (1)
- awk (1)
- hive (7)
- jvm (1)
最新评论
-
pandaball:
支持一下,心如大海
做有气质的男人 -
recall992:
山东分公司的风格[color=brown]岁的法国电视[/co ...
solr是如何存储索引的 -
zhangsasa:
-services "services-config ...
flex中endpoint的作用是什么? -
来利强:
非常感谢
java使用json所需要的几个包 -
zhanglian520:
有参考价值。
hadoop部署错误之一:java.lang.IllegalArgumentException: Wrong FS
海量数据正在不断生成,对于急需改变自己传统IT架构的企业而言,面对海量数据,如何分析并有效利用其价值,同时优化企业业务已成为现代企业转型过程中不可避免的问题。
作为海量数据处理的一个重要工具——Hadoop也开始受到了越来越多人的关注。第四届Hadoop大会——Hadoop Summit 2011大会6月29日在Santa Clara举行了,备受关注的Yahoo新成立的子公司——Hortonworks在此次大会上亮相,号称比Hadoop快三倍的MapR也亮相了、同时一些新的项目比如HCatalog等也受到了技术人员的关注。我们将此次会议的一些重要信息整理如下,提供给Hadoop的从业者们参考。
三大Hadoop支持商争奇斗艳
Hortonworks——小象变成了大象
Eric Baldeschwieler做了主题演讲,他也是Hortonworks(Yahoo剥离出的专门运营Hadoop的新公司)未来的CEO。Hortonworks公司将专门负责Hadoop的开发和运维。他表示新公司的目标是提供商业上的支持,并为客户提供完整的Apache Hadoop平台。他还表示Cloudera是他们的竞争对手,并且表示两家公司非常相似。(Eric并未提及MapR,也许在他看来,由EMC赞助的MapR至少在开放性上还很难与Hortonworks和cloudera相比较,不过在对Hadoop的支持上,Cloudera、MapR和Hortonworks将是最有力的三个贡献者,从LOGO即可看出,Hadoop已经从小象变成了三只大象)。Cloudera提供他们自己的Hadoop分布式系统基础架构,类似于Apache发布的版本,Hortonworks的目标是提供类似的服务。
此外,Sanjay Radia也谈到了Hadoop对企业的影响,Hortonworks在工作安全性(防止用户数据被别人删除)、服务水平协议(SLA)、可预测性和资源共享调度等方面进行了改善。
MapR——最大处理1010EB数据
MapR——MC Srivas介绍了MapR的算法,以及和Apache Hadoop的不同。MapR的Hadoop Distribution对Hadoop的可靠性、性能和易用方面都做了大量的提升。HDFS可以处理10-50PB的数据,而MapR则可以处理1010EB数据!(什么概念?!)HDFS的瓶颈是2000节点的集群,而MapR的的处理能力则是10000个节点以上的集群。
在NameNode HA方面,MapR把元数据放在了所有的节点,这样不仅可以scale还可以实现HA,由于元数据很少检索,因此有更多的内存可用于MapReduce处理。另外,MapR与Pig和Oozie兼容,HDFS也完全兼容了NFS协议,支持随机读写功能。
此外,MapR还配备了快照,并号称不会出现SPOF单节点故障,且与现有HDFS的API兼容,因此非常容易替换原有的系统。
目前,MapR M3 Free版本已经提供下载。
Cloudera——3.5版本发布
CLoudera新发布的Enterprise 3.5是此次大会的亮点之一。产品副总裁Charles Zedlewski表示,“最大的变化在于能够让用户在一两分钟内就可以安装和配置Google-like这样的架构”。
据了解,3.5版本能够自动配置、重启服务器、添加删除硬件。另外还有一个活动监视器,整合各组件的用户行为,并提供实时查看活动、活动历史以及工作;同时它还提高了资源和授权的管理,并改善LDAP(Lightweight Directory Access Protocol)系统安全。
Cloudera 3.5提供了10个组件。Charles Zedlewski还表示将进一步增加3到4个CDH的组件,例如压缩算法,利用Google的Snappy加快数据的导入和导出。
免费的Express版已经可以下载,这个版本可自动安装和配置50个节点。
Kafka、Haystack、HCatalog——海量数据处理的未来
Linkedln——只有7000行代码的Kafka
Linkedln作为最近最热的社交网站,受到了与会者们的重点关注。开源的Kafka是Linkedln的开源消息队列——包括数据跟踪、记录、指标、消息和队列。仅仅由7000行Scala编写,据了解,Kafka每秒可以生产约25万消息(50 MB),每秒处理55万消息(110 MB)。
在kafka的核心思路中,不需要在内存里缓存数据,因为操作系统的文件缓存已经足够完善和强大,只要不做随机写,顺序读写的性能是非常高效的。kafka的数据只会顺序append,数据的删除策略是累积到一定程度或者超过一定时间再删除。Kafka另一个独特的地方是将消费者信息保存在客户端而不是MQ服务器,这样服务器就不用记录消息的投递过程,每个客户端都自己知道自己下一次应该从什么地方什么位置读取消息,消息的投递过程也是采用客户端主动pull的模型,这样大大减轻了服务器的负担。Kafka还强调减少数据的序列化和拷贝开销,它会将一些消息组织成Message Set做批量存储和发送,并且客户端在pull数据的时候,尽量以zero-copy的方式传输,利用sendfile(对应java里的FileChannel.transferTo/transferFrom)这样的高级IO函数来减少拷贝开销。可见,kafka是一个精心设计,特定于某些应用的MQ系统,这种偏向特定领域的MQ系统我估计会越来越多,垂直化的产品策略值的考虑。
Facebook的Haystack
在Karthic Ranganathan的演讲中,FaceBook每月有150亿条信息,但不包括短信和电子邮件,大约有14TB的数据。此外还有1200亿聊天数据,大约有25TB,每月总计会有300TB的数据生成。Facebook使用HBase满足他们的在小消息(small message)、元数据、和搜索引擎的需求。
据了解,Facebook使用HBase是因为它的高吞吐量写入简单并具有横向扩展的能力。Facebook使用被称之为“Haystack”的系统存储照片、大型邮件和附件,而“Haystack”的配置是16个内核,12个1TB硬盘和48GB内存(HBase占用24GB)。
此外Fackbook正在提高NameNode的高可用性和使用第二个NameNode,并使用闪存来提高性能。
IBM的Watson
Anant Jhingran是IBM的CTO,他重点介绍了IBM的Watson的分布式计算原理,实际上,尽管MapReduce被应用到了Watson之中,但IBM并未对此进行大规模的宣传。(据现场目击者描述,IBM只是介绍了Watson到底有多么强大,但到底是如何强大,IBM并未做出太多的描述)据了解,Watson的知识是来源于200万个网页数据,总共2-5TB的数据量(即时性),而这一切,base在使用3000-4000瓦电量的基础上(节能性)。他还指出,用户界面和人工智能对于应用程序来说同样重要。
HCatalog——解决HDFS存储瓶颈
HCatalog是Apache新的一个开源项目,由Yahoo刚成立的Hortonworks提交。HCatalog主要用于解决数据存储、元数据的问题。(主要解决HDFS的瓶颈),它提供了一个地方来存储数据的状态信息,这使得数据清理和归档工具可以很容易的进行处理。
HCatalog值得期待,因为用户不再再需要担心文件和目录的问题。HCatalog还允许数据生产者改变写数据操作,同时还支持旧格式数据,对开发人员而言,HCatalog目前提供了一个API,用于帮助数据存储开发人员读取和写入不同的格式数据。
从公布的信息来看,Pig和Hive已经开始集成HCatalog,而Hortonworks正打算增加HCatalog对HBase的支持。
Giraph——大规模图像处理
大规模图形算法——Giraph。大规模的图形算法是本次会议的一个热点,Avery Ching谈到了Giraph——基于Hadoop的大规模图像处理。Yahoo过去使用MPI处理图形,可惜MPI没有容错功能,而作为一个迭代的图形处理库,Giraph具有容错和动态调节的功能。
实际上,雅虎的Webmap是一个用来计算网页间链接关系,和基于链接关系的feature的算法。最主要的部分是link inversion和类似page rank的迭代算法,Giraph主要是webmap中相关算法的系统化框架化。
Hadoop in CBSi
令人惊讶的是,作为一个媒体集团,CBSi居然也拥有自己的MapReduce技术,并支持Chukwa、Pig、Hive、HBase、Cascading、Sqoop、Oozie等等。CBSi用了100个节点、500TB磁盘来处理2.35亿个媒体文件。CBSi的Hadoop平台主要功能是数据挖掘、实验和对广告系统优化。而它正希望添加Oozie、Azkaban、HCatalog以及Hama(graph processing)到它的Hadoop平台之上
发表评论
-
Java并发编程总结---Hadoop核心源码实例解读
2012-04-01 15:46 2188程序设计需要同步(synchronization),原因:1) ... -
使用hadoop的lzo问题!
2011-08-24 17:12 2636使用lzo压缩替换hadoop原始的Gzip压缩。相比之下有如 ... -
secondarynamenode配置使用总结
2011-07-07 08:37 7546一、环境 Hadoop 0.20.2、JDK 1.6、Lin ... -
Map/Reduce中的Combiner的使用
2011-07-07 08:36 4762一、作用 1、combiner最基本是实现本地key的聚合, ... -
Map/Reduce中的Partiotioner使用
2011-07-07 08:35 1868一、环境 1、hadoop 0.20.2 2、操作系统Li ... -
hadoop如何添加节点
2011-07-06 12:43 14891.部署hadoop 和普通的datanode一样。安装 ... -
hadoop如何恢复namenode
2011-07-06 12:36 8535Namenode恢复 1.修改conf/core-site.x ... -
Hadoop删除节点(Decommissioning Nodes)
2011-07-06 11:52 25681.集群配置 修改conf/hdfs-site.xml ... -
hadoop知识点整理
2011-07-06 11:51 26761. Hadoop 是什么? Hadoop 是一种使用 Ja ... -
hadoop优化
2011-07-03 15:43 1334一. conf/hadoop-site.xml配置, 略过. ... -
hadoop分配任务的问题
2011-05-16 23:09 5请教大家一个关于hadoop分配任务的问题: 1、根据机器 ... -
hadoop-FAQ
2011-05-15 11:38 723hadoop基础,挺详细的。希望对大家有用! -
Apache Hadoop 0.21版本新功能ChangeNode
2011-04-21 22:04 1997Apache Hadoop 0.21.0 在2010年8月23 ... -
Hadoop关于处理大量小文件的问题和解决方法
2011-04-21 11:07 2509小文件指的是那些size比 ... -
hadoop常见错误及解决办法!
2011-04-07 12:18 96461转: 1:Shuffle Error: Exceede ... -
Hadoop节点热拔插
2011-04-07 12:16 1631转 : 一、 Hadoop节点热 ... -
hadoop动态添加节点
2011-04-07 12:14 2010转: 有的时候, datanode或者tasktrac ... -
欢迎大家讨论hadoop性能优化
2011-04-06 15:42 1299大家知道hadoop这家伙是非常吃内存的。除了加内存哦! 如 ... -
hadoop错误之二:could only be replicated to 0 nodes, instead of 1
2011-02-22 08:23 2358WARN hdfs.DFSClient: NotReplic ... -
hadoop部署错误之一:java.lang.IllegalArgumentException: Wrong FS
2011-02-21 16:02 8746特别注意:hadoop的相关配置文件尽量使用主机名而不是ip地 ...
相关推荐
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它允许在普通硬件上高效处理大量数据。在Windows环境下,Hadoop的使用与Linux有所不同,因为它的设计最初是针对Linux操作系统的。"winutils"和"hadoop.dll...
在IT行业中,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分布式存储。Hadoop 2.7.3是这个框架的一个稳定版本,它包含了多个改进和优化,以提高性能和稳定性。在这个版本中,Winutils.exe和hadoop.dll是两...
Hadoop学习资料(一)包含了从第一周到第十六周的课程笔记,是作者在深入学习Hadoop过程中积累的知识结晶。这份资料对于那些想要踏入大数据处理领域的初学者或者是正在提升Hadoop技能的人来说,无疑是一份宝贵的资源...
Hadoop是一个开源的分布式计算框架,由Apache基金会开发,它主要设计用于处理和存储大量数据。在提供的信息中,我们关注的是"Hadoop的dll文件",这是一个动态链接库(DLL)文件,通常在Windows操作系统中使用,用于...
Hadoop 是一个处理、存储和分析海量的分布式、非结构化数据的开源框架。最初由 Yahoo 的工程师 Doug Cutting 和 Mike Cafarella Hadoop 是一个处理、存储和分析海量的分布式、非结构化数据的开源框架。最初由 Yahoo...
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进 Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不...
在IT行业中,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分布式存储。Hadoop 2.7.3是Hadoop发展中的一个重要版本,它包含了众多的优化和改进,旨在提高性能、稳定性和易用性。在这个版本中,`hadoop.dll`...
在大数据处理领域,Hadoop是一个不可或缺的开源框架,它提供了分布式存储和计算的能力。本文将详细探讨与"Hadoop.dll"和"winutils.exe"相关的知识点,以及它们在Hadoop-2.7.1版本中的作用。 Hadoop.dll是Hadoop在...
Hadoop 云计算 2.0 笔记第一课 Hadoop 介绍 Hadoop 云计算 2.0 笔记第一课 Hadoop 介绍中,我们可以了解到 Hadoop 的生态系统特点、Hadoop 生态系统概况、Hadoop 生态系统版本衍化、下一代 Hadoop、Hadoop 学习...
标题 "hadoop2.6 hadoop.dll+winutils.exe" 提到的是Hadoop 2.6版本中的两个关键...不过,值得注意的是,尽管可以这样做,但在生产环境中,由于Windows的兼容性和性能问题,更推荐使用原生的Linux环境来运行Hadoop。
Hadoop是Apache Lucene的创始人 Doung Cutting 创建的, Hadoop起源于Apache Nutch, 一个开源的网络搜索引擎,也是Apache的Lucene项目的一部分。Hadoop是创始人Doung Cutting的儿子给一头大象起的名字。 Hadoop的子...
Hadoop作为大数据处理的核心组件,包括HDFS(Hadoop Distributed File System)和MapReduce等模块,构建一个Hadoop集群通常涉及多台服务器的配置、软件安装、服务启动和集群配置。通过Ansible,我们可以简化这个过程...
Hadoop 2.7.7是一款开源的分布式计算框架,由Apache基金会所开发。它的核心组件包括分布式文件系统HDFS和离线计算框架MapReduce。Hadoop 2.7.7支持完全分布式集群部署,具有高可靠性、高可扩展性、高容错性等特性。...
资源名称:云计算Hadoop:快速部署Hadoop集群内容简介: 近来云计算越来越热门了,云计算已经被看作IT业的... Apache Hadoop 是一个软件框架,它可以分布式 资源太大,传百度网盘了,链接在附件中,有需要的同学自取。
在Hadoop生态系统中,Hadoop 2.7.7是一个重要的版本,它为大数据处理提供了稳定性和性能优化。Hadoop通常被用作Linux环境下的分布式计算框架,但有时开发者或学习者在Windows环境下也需要进行Hadoop相关的开发和测试...
但是,值得注意的是,虽然Hadoop在Windows上的支持有所改善,但其主要还是针对Linux环境优化。因此,在Windows上运行Hadoop可能遇到性能问题,且在社区中关于Windows的文档和支持相比Linux可能较少。如果可能的话,...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它的核心设计是处理和存储大量数据的能力。这个名为"Hadoop3.1.3.rar"的压缩包文件包含了Hadoop 3.1.3版本的所有组件和相关文件,使得用户可以下载并进行...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它允许在大规模集群中高效处理和存储海量数据。这个压缩包文件包含的"hadop实用案例"很可能是为了帮助初学者理解和应用Hadoop技术。以下是关于Hadoop的一些...
`hadoop.dll`是一个动态链接库文件,主要用于在Windows环境中提供Hadoop运行时所需的函数库支持,而`winutils.exe`则是一个实用工具程序,它提供了类似于Linux环境下`hadoop`命令行工具的功能。 首先,我们来详细...