0. 大背景
全球No.1搜索引擎公司谷歌(Google)面临每天海量搜索引擎数据的问题,经过长时间的实践积累,
谷歌形成了自己的大数据框架,但是并没有开源,而是发表了一篇论文,阐述了自己的思想,在论文中
提到了MapReduce的方法。这篇论文,被Doug Cutting也就是后来的Hadoop之父所关注,引起了他极大的兴趣。
因为,这个时候,他正在致力于一个项目,该项目需要多任务并行处理大量的数据,他和伙伴努力了多次,结果都不理想。
于是,Doug和他的团队决定基于Google的MapReduce的思想重新开发一个框架。
经过一段时间的努力,于 2005 年秋天作为Lucene的子项目Nutch的一部分正式引入Hadoop项目作为Apache基金会的项目。
Hadoop这个名字不是一个缩写,而是一个虚构的名字。该项目的创建者,Doug Cutting解释Hadoop的得名 :“这个名字是我孩子给一个棕黄色的大象玩具命名的。
学习Hadoop建议的参考书:Hadoop权威指南,目前中文版到第3版,英文版已经到Edition 4, 该书的作者Tom White是Hadoop创始团队的核心成员,是Hadoop委员会的成员。
大牛级的人物!!
2. 生态体系概览
经过长时间的发展,Hadoop已经形成了自己的生态体系。
有些框架是诸如一些大公司如Yahoo, Facebook团队所开发的,下面我们来看一下它的生态图:
从上图可以看出,Apache Hadoop包含如下主要组件:
* HDFS and MapReduce: 这是Hadoop的核心框架(也就是Doug Cutting和他的团队所开发的)
* HBase, Hive, Pig: 这3个框架主要负责数据存储和查询,分别由不同公司开发,我们后面会介绍到
* Flume, Sqoop: 负责数据的导入/导出
* Mahout: 机器学习和分析
* Zookeeper: 分布式协调
* Ambari: 集群管理
* Avro: 数据存储和序列化
* HCatalog: 元数据管理
3. 各组件分别介绍
1)Apache HBase
由于HDFS是只能追加数据的文件系统,它不允许数据的修改。
所以,Apache HBase由此而诞生。
HBase是一个分布式的,随机访问的,面向列的数据库系统。
HBase在HDFS的顶层运行,它允许应用程序开发人员直接读写HDFS数据。
但是,唯一的缺陷在于:HBase并不支持SQL语句。
所以,它也是NOSQL数据库的一种。
然而,它提供了基于命令行的界面以及丰富的API函数来更新数据。
需要提到的是:HBase中的数据是以键值对的形式存储在HDFS文件系统中的。
2)Apache Pig
Apache Pig由Yahoo开发,它提供了在MapReduce之上的抽象层。
它提供了一种叫做Pig Latin的被用来创建MapReduce程序的语言。
Pig Latin被程序员用来编写程序,分析数据,通过它可以创建并行执行的任务,
从而可以更有效地利用Hadoop的分布式集群。
Pig有很多成功的大公司项目案例,如:eBay, LinkedIn, Twitter。
3)Apache Hive
Hive被用来作为大数据的数据仓库,它也使用HDFS文件系统来存储数据。
在Hive中我们不编写MapReduce程序,因为Hive提供了一种类SQL语言,叫做HiveQL,
这让开发者能够迅速写出类似关系型数据SQL查询的点对点(ad-hoc)查询。
4)Apache ZooKeeper
Hadoop通过节点(nodes)的方式提供相互间的通信。
ZooKeeper便是被用来管理这些节点的,它被用来协调各个节点。
除了管理节点以外,它还维护一些配置信息,并且对分布式系统的服务进行分组。
ZooKeeper可以独立于Hadoop来运行,而不像生态系统中的其它组件一样。
由于ZooKeeper是基于内存来管理信息的,因此它的性能相对来说还是挺高的。
5)Apache Mahout
Mahout是一个开源的机器学习库,它能使Hadoop用户高效地进行诸如数据分析,数据挖掘以及集群等一些列操作。
Mahout对于大数据集特别高效,它提供的算法经过性能优化能够在HDFS文件系统上高效地运行MapReduce框架。
6)Apache HCatalog
HCatalog在Hadoop的顶层提供元数据的管理服务。
所有运行在Hadoop之上的软件能够使用HCatalog在HDFS文件系统中存储它们的计划(schema)。
HCatalog以REST API的方式使第三方的软件能够创建,编辑和暴露表格的定义以及生成的元数据。
因此,我们通过HCatalog并不需要知道数据的物理位置在那里。
HCatalog提供了数据定义语句(DDL),通过它们MapReduce, Pig, Hive等的工作任务将以队列的形式等待执行,如有需要
还可以监控它们各自的进度。
7)Apache Ambari
Ambari被用来监控Hadoop集群。
它提供了一些列特性,诸如:安装向导,系统警告,集群管理,任务性能等。
Ambari也提供了RESTful的API以便与其他软件进行整合。
8)Apache Avro
如何用过其它编程语言来有效地组织Hadoop的大数据,Avro便是为了这个目的而生。
Avro提供了各个节点上的数据的压缩以及存储。
基于Avro的数据存储能够轻松地被很多脚本语言诸如Python,或者非脚本语言如Java来读取。
另外,Avro还可被用来MapReduce框架中数据的序列化。
9)Apache Sqoop
Sqoop被用来在Hadoop中高效地加载大数据集,例如它允许开发人员轻松地从一些数据源,如:
关系型数据库,企业级数据仓库,甚至应用程序导入/导出数据数据。
10)Apache Flume
Flume常被用来进行日志的聚合操作,它被用来作为ETL(Extract-Transform-Load) - 解转加(解压-转换-加载)工具来使用。
好了,Hadoop生态体系以及它们的主要组件就大致介绍到这里了!
- 大小: 50.9 KB
分享到:
相关推荐
Hadoop-Eclipse-Plugin 2.8.0的出现,反映了Hadoop生态系统从Hadoop 1到Hadoop 2的重大转变,尤其是在资源管理和任务调度方面的改进。同时,这也意味着对于那些已经习惯了Eclipse或MyEclipse的开发者来说,他们无需...
hadoop-annotations-3.1.1.jar hadoop-common-3.1.1.jar hadoop-mapreduce-client-core-3.1.1.jar hadoop-yarn-api-3.1.1.jar hadoop-auth-3.1.1.jar hadoop-hdfs-3.1.1.jar hadoop-mapreduce-client-hs-3.1.1.jar ...
Hadoop-Eclipse-Plugin-3.1.1是一款专为Eclipse集成开发环境设计的插件,用于方便地在Hadoop分布式文件系统(HDFS)上进行开发和调试MapReduce程序。这款插件是Hadoop生态系统的组成部分,它使得Java开发者能够更加...
标题 "hadoop2.6-common-bin.zip" 指示这是一个包含Hadoop 2.6版本通用二进制文件的压缩包。这个压缩包主要针对Windows...此外,对于开发和运维人员,理解这些文件的作用以及如何与Hadoop生态系统交互是至关重要的。
`hadoop-common-2.6.0-bin-master.zip` 是一个针对Hadoop 2.6.0版本的压缩包,特别适用于在Windows环境下进行本地开发和测试。这个版本的Hadoop包含了对Windows系统的优化,比如提供了`winutils.exe`,这是在Windows...
同时,它也展示了大数据生态系统中不同组件如何协同工作,如Hadoop的HDFS、YARN和MapReduce,以及Spark的计算引擎,所有这些都依赖于Java和Scala等编程语言来实现。正确理解和使用这些工具,将能有效地利用大数据的...
hadoop-3.1.3-winutils-master.zip"压缩包中,包含了在Windows环境下配置Hadoop HDFS客户端所需的组件,特别是`hadoop-winutils`和`hadoop.dll`这两个关键文件,它们对于在Windows系统上运行Hadoop生态系统至关重要...
hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包
Eclipse集成Hadoop2.10.0的插件,使用`ant`对hadoop的jar包进行打包并适应Eclipse加载,所以参数里有hadoop和eclipse的目录. 必须注意对于不同的hadoop版本,` HADDOP_INSTALL_PATH/share/hadoop/common/lib`下的jar包...
Apache Flink 是一个流行的开源大数据处理框架,而 `flink-shaded-hadoop-2-uber-2.7.5-10.0.jar.zip` 文件是针对 Flink 优化的一个特殊版本的 Hadoop 库。这个压缩包中的 `flink-shaded-hadoop-2-uber-2.7.5-10.0....
在这个特定的兼容包中,我们可以看到两个文件:flink-shaded-hadoop-3-uber-3.1.1.7.1.1.0-565-9.0.jar(实际的兼容库)和._flink-shaded-hadoop-3-uber-3.1.1.7.1.1.0-565-9.0.jar(可能是Mac OS的元数据文件,通常...
hadoop-eclipse-plugin-2.7.4.jar和hadoop-eclipse-plugin-2.7.3.jar还有hadoop-eclipse-plugin-2.6.0.jar的插件都在这打包了,都可以用。
Ubuntu虚拟机HADOOP集群搭建eclipse环境 hadoop-eclipse-plugin-3.3.1.jar
hadoop-eclipse-plugin-1.2.1hadoop-eclipse-plugin-1.2.1hadoop-eclipse-plugin-1.2.1hadoop-eclipse-plugin-1.2.1
hadoop-common-2.2.0-bin-master(包含windows端开发Hadoop和Spark需要的winutils.exe),Windows下IDEA开发Hadoop和Spark程序会报错,原因是因为如果本机操作系统是windows,在程序中使用了hadoop相关的东西,比如写入...
# 解压命令 tar -zxvf flink-shaded-hadoop-2-uber-3.0.0-cdh6.2.0-7.0.jar.tar.gz # 介绍 用于CDH部署 Flink所依赖的jar包
hadoop-eclipse-plugin-3.1.3,eclipse版本为eclipse-jee-2020-03
8. **生态系统**: Spark的生态非常丰富,包括DataFrame/Dataset API、Spark SQL、Spark Streaming、GraphX(图计算)、MLlib(机器学习库)和SparkR(R语言接口)。这些组件可以组合使用,满足各种大数据处理需求。 ...
在eclipse中搭建hadoop环境,需要安装hadoop-eclipse-pulgin的插件,根据hadoop的版本对应jar包的版本,此为hadoop3.1.2版本的插件。
hadoop-mapreduce-examples-2.7.1.jar