`
weitao1026
  • 浏览: 1053756 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

Apache HAWQ ——功能强大的SQL-on-Hadoop引擎

 
阅读更多

Pivotal中国研发中心研发总监,HAWQ并行Hadoop SQL引擎创始人,Pivotal HAWQ团队负责人,曾任EMC高级研究员。专注于大数据与云计算领域,在国内外顶级数据管理期刊和会议发表数篇论文,并拥有多项美国专利。

分享主要分为以下五个部分:

  1. HAWQ基本介绍;
  2. HAWQ架构以及各重要组件的基本原理;
  3. HAWQ的中短期规划;
  4. 如何贡献到HAWQ和成为Apache Committer;
  5. Q & A。

 

一、HAWQ基本介绍


HAWQ是一个Hadoop原生大规模并行SQL分析引擎,针对的是分析性应用。和其他关系型数据库类似,接受SQL,返回结果集。但它具有大规模并行处理很多传统数据库以及其他数据库没有的特性及功能。主要如下:

  1. 对标准的完善支持:ANSI SQL标准,OLAP扩展,标准JDBC/ODBC支持,比其他Hadoop SQL引擎都要完善。
  2. 具有MPP(大规模并行处理系统)的性能,比其他Hadoop里面的SQL引擎快数倍。
  3. 具有非常成熟的并行优化器。优化器是并行SQL引擎的重要组成部分,对性能影响很多,尤其是对复杂查询。
  4. 支持ACID事务特性:这是很多现有基于Hadoop的SQL引擎做不到的,对保证数据一致性很重要。
  5. 动态数据流引擎:基于UDP的高速互联网络。
  6. 弹性执行引擎:可以根据查询大小来决定执行查询使用的节点及Segment个数。
  7. 支持多种分区方法及多级分区:比如List分区和Range分区。分区表对性能有很大帮助,比如你只想访问最近一个月的数据,查询只需要扫描最近一个月数据所在分区。
  8. 支持多种压缩方法:snappy,gzip,quicklz,RLE等。
  9. 多种UDF(用户自定义函数)语言支持:java, python, c/c++, perl, R等。
  10. 动态扩容:动态按需扩容,按照存储大小或者计算需求,秒级添加节点。
  11. 多级资源或负载管理:和外部资源管理器YARN集成;可以管理CPU,Memory资源等;支持多级资源队列;方便的DDL管理接口。
  12. 支持访问任何HDFS及其他系统的数据:各种HDFS格式(文本,SequenceFile,Avro,Parquet等等)以及其他外部系统(HBase等),并且用户自己可以开发插件来访问新的数据源。
  13. 原生的机器学习数据挖掘库MADLib支持:易于使用及高性能。
  14. 与Hadoop系统无缝集成:存储、资源、安装部署(Ambari)、数据格式、访问等。
  15. 完善的安全及权限管理:kerberos;数据库,表等各个级别的授权管理。
  16. 支持多种第三方工具:比如Tableau,SAS,较新的Apache Zeppelin等。
  17. 支持对HDFS和YARN的快速访问库:libhdfs3和libyarn(其他项目也可以使用)。
  18. 支持在本地、虚拟化环境或者在云端部署。

下面我来谈一下HAWQ是原生Hadoop SQL引擎中“原生”的意思,“原生”主要体现在如下几个方面:

  1. 数据都存储在HDFS上,不需要使用connector模式。
  2. 高可扩展性:和其他Hadoop组件一样,高可扩展。并且具有高性能。
  3. 原生的代码存取:和其他Hadoop项目一样。HAWQ是Apache项目。用户可以自由的下载,使用和做贡献。区别与其他的伪开源软件。
  4. 透明性:用Apache的方式开发软件。所有功能的开发及讨论都是公开的。用户可以自由参与。
  5. 原生的管理:可以通过Ambari部署、资源可以从YARN分配,与其它Hadoop组件可以运行在同一个集群。

HAWQ提供的主要好处:

  • HAWQ与同类开源和闭源产品比较,如图1:

Apache HAWQ

(图1)

  • HAWQ与同类开源和闭源产品比较,如图2:

Apache HAWQ

(图2)

HAWQ的历史和现状:

  1. 想法和原型系统 (2011):GOH阶段(Greenplum Database On HDFS)。
  2. HAWQ 1.0 Alpha (2012): 多个国外大型客户试用,当时客户性能测试是Hive的数百倍。促进了HAWQ 1.0作为正式产品发布。
  3. HAWQ 1.0 GA (2013年初): 改变了传统MPP数据库架构,包括事务,容错,元数据管等。
  4. HAWQ 1.X版本 (2014-2015 Q2):增加了一些企业级需要的功能,比如Parquet存储,新的优化器,Kerberos,Ambari安装部署。客户覆盖全球。
  5. HAWQ 2.0 Alpha发布并成为Apache孵化器项目:针对云环境的系统架构重新设计,数十个高级功能,包括弹性执行引擎,高级资源管理,YARN集成,秒级扩容等等。现在大家在Apache开源的是最新的2.0 Alpha版本。未来的开发都在Apache进行。

二、Apache HAWQ系统架构


下面我来介绍一下HAWQ的系统架构。图3给出了一个典型的HAWQ集群的主要组件。其中有几个Master节点:包括HAWQ master节点,HDFS master节点NameNode,YARN master节点ResourceManager。现在HAWQ元数据服务在HAWQ master节点里面,将来的版本会成为单独的服务。其他节点为Slave节点。每个Slave节点上部署有HDFS DataNode,YARN NodeManager以及一个HAWQ Segment。HAWQ Segment在执行查询的时候会启动多个QE (Query Executor, 查询执行器)。查询执行器运行在资源容器里面。

Apache HAWQ

(图3)

图4是HAWQ内部架构图:

Apache HAWQ

(图4)

可以看到在HAWQ master节点内部有如下几个重要组件:查询解析器(Parser/Analyzer),优化器,资源管理器,资源代理,HDFS元数据缓存,容错服务,查询派遣器,元数据服务。在Slave节点上安装有一个物理Segment,在查询执行时,针对一个查询,弹性执行引擎会启动多个虚拟Segment同时执行查询,节点间数据交换通过Interconnect(高速互联网络)进行。如果一个查询启动了1000个虚拟Segment,意思是这个查询被均匀的分成了1000份任务,这些任务会并行执行。所以说虚拟Segment数其实表明了查询的并行度。查询的并行度是由弹性执行引擎根据查询大小以及当前资源使用情况动态确定的。下面我逐个来解释这些组件的作用以及它们之间的关系:

  1. 查询解析器:负责解析查询,并检查语法及语义。最终生成查询树传递给优化器。
  2. 优化器:负责接受查询树,生成查询计划。针对一个查询,可能有数亿个可能的等价的查询计划,但执行性能差别很大。优化器的作用是找出优化的查询计划。
  3. 资源管理器:资源管理器通过资源代理向全局资源管理器(比如YARN)动态申请资源。并缓存资源。在不需要的时候返回资源。我们缓存资源的主要原因是减少HAWQ与全局资源管理器之间的交互代价。HAWQ支持毫秒级查询。如果每一个小的查询都去向资源管理器申请资源,这样的话,性能会受到影响。资源管理器同时需要保证查询不使用超过分配给该查询的资源,否则查询之间会相互影响,可能导致系统整体不可用。
  4. HDFS元数据缓存:用于HAWQ确定哪些Segment扫描表的哪些部分。HAWQ是把计算派遣到数据所在的地方。所以我们需要匹配计算和数据的局部性。这些需要HDFS块的位置信息。位置信息存储在HDFS NameNode上。每个查询都访问HDFS NameNode会造成NameNode的瓶颈。所以我们在HAWQ Master节点上建立了HDFS元数据缓存。
  5. 容错服务:负责检测哪些节点可用,哪些节点不可用。不可用的机器会被排除出资源池。
  6. 查询派遣器:优化器优化完查询以后,查询派遣器派遣计划到各个节点上执行,并协调查询执行的整个过程。查询派遣器是整个并行系统的粘合剂。
  7. 元数据服务:负责存储HAWQ的各种元数据,包括数据库和表信息,以及访问权限信息等。另外,元数据服务也是实现分布式事务的关键。
  8. 高速互联网络:负责在节点之间传输数据。软件实现,基于UDP。

查询执行


了解清楚各个组件之后,我们来看一下一个查询的主要流程(请参见图5)。

Apache HAWQ

(图5)

用户通过JDBC/ODBC提交查询之后,查询解析器得到查询树,然后优化器根据查询树生成查询计划,派遣器和资源管理器打交道得到资源,分解查询计划,然后派遣计划到Segment的执行器上面执行。最终结果会传回给用户。

下面我来简单看一下并行查询计划长什么样。图6给出了一个具体的例子。

Apache HAWQ

(图6)

这个查询包含一个连接,一个表达式和一个聚集。图中有两个查询计划。简单来看,并行查询计划和串行查询计划最不同的是多了一些Motion操作符。Motion负责在节点之间交换数据。底层是通过高速互联网络实现的。我们可以看到这里有三种Motion:

  1. Redistribution Motion: 负责按照hash键值重新分布数据
  2. Broadcast Motion: 负责广播数据
  3. Gather Motion: 负责搜集数据到一起。

左边的查询计划表示了如果表lineitem和orders都使用了连接键进行分布的情况。在这个例子中,lineitem按照l_orderkey进行hash分布,orders表按照o_orderkey进行分布。这样的话两个表做连接的时候是不需要进行重新分布的。右边的查询计划表示了一个需要重新分布数据的例子。该查询计划和左边的查询计划相比多了一个Motion节点。

弹性执行引擎


弹性执行引擎有几个关键设计点:存储和计算的完全分离,无状态Segment以及如何使用资源。存储和计算的分离使得我们可以动态的启动任意多个虚拟Segment来执行查询。无状态Segment使得集群更容易扩展。要想保证大规模集群的状态一致性是比较困难的问题,所以我们采用了无状态的Segment。如何使用资源包括如何根据查询的代价申请多少资源,并且如何有效的使用这些资源,比如如何使得数据局部性最优。HAWQ内部针对每一个部分都进行了非常优化的设计。

元数据服务


元数据服务位于HAWQ Master节点。主要向其他组件提供元数据的存储及查询服务。对外的接口为CaQL(元数据查询语言, Catalog Query Language)。CaQL支持的语言是SQL的一个子集,包括单表选择,计数,多行删除,单行插入更新等。把CaQL设计为SQL语言的一个子集的原因是,在未来我们希望把元数据从主节点分离出去,作为一个单独的服务,支持一个简单的子集作为元数据服务来说已经够用了,并且容易扩展。

高速互联网络


高速互联网络的作用是在多个节点之间交换大量数据。HAWQ高速互联网络基于UDP协议。大家可能会问为什么我们不使用TCP。其实我们同时支持TCP和UDP两种协议。TCP协议早于UDP协议。就是因为我们遇到了TCP不能很好解决的问题,我们才开发了基于UDP的协议。图7展示了一个高速互联网络的例子。

Apache HAWQ

(图7)

例子中各个节点上的执行器进程形成了一个数据交换的流水线。假设每个节点上有1000个进程。有1000个节点,这些进程需要相互交互,每个节点上就会有上百万个连接。TCP是没办法高效地支持这么多的连接数的。所以我们开发了基于UDP的互联协议。针对UDP传输,操作系统是不能保证可靠性的,并且不能保证是有序传递的。我们的设计目标需要保持以下特性:

  1. 可靠性:能够保证在丢包的情况下,重传丢失的包
  2. 有序性:保证包传递给接受者的最终有序性
  3. 流量控制:如果不控制发送者的速度,接收者可能会被淹没,甚至会导致整个网络性能急剧下降
  4. 性能和可扩展性:性能和可扩展性是我们需要解决TCP问题的初衷
  5. 可支持多种平台

Apache HAWQ

(图8)

图8展现了我们实现UDP高速互联网络的状态机。并且设计时还需要考虑死锁的消除。详细信息可以参考参考文献。

事务管理


事务是数据管理系统一个非常重要的属性。大部分Hadoop里面的SQL引擎不支持事务。让程序员自己保证事务和数据的一致性,基本上是非常困难的事。

HAWQ支持事务的所有ACID属性,支持Snapshot Isolation。事务发生由Master节点协调和控制。采用的是一种泳道模型。比如并发的插入各个查询使用各自的泳道,互不冲突。在事务提交的时候通过记录文件逻辑长度的方式来保证一致性。如果事务失败的时候,需要回滚,删除文件末尾的垃圾数据。起初HDFS是不支持truncate的,现在HDFS刚支持的truncate功能是根据HAWQ的需求做出的。

资源管理器


HAWQ支持三级资源管理:

  1. 全局资源管理:可以集成YARN,和其他系统共享集群资源。未来会支持Mesos等
  2. HAWQ内部资源管理:可以支持查询,用户等级别的资源管理
  3. 操作符级别资源管理:可以针对操作符分配和强制资源使用

现在HAWQ支持多极资源队列。可以通过DDL方便的定义和修改资源队列定义。下面是HAWQ资源管理器的主要架构图:

Apache HAWQ

(图9)

资源管理器中的各个组件作用如下:

  1. 请求处理器:接收查询派遣器进程的资源请求
  2. 资源分配器:负责资源的分配
  3. 资源池:保存所有资源的现有状态
  4. 策略存储:保存所有的分配策略,将来会做到策略可定制。
  5. 资源代理:负责与全局资源管理器交互

存储模块


HAWQ支持多种内部优化的存储格式,比如AO和Parquet。提供MapReduce InputFormat,可以供外部系统直接访问。其他各种存储格式通过扩展框架访问。针对用户专有格式,用户可以自己开发插件。同时支持各种压缩,多极分区等各种功能。

MADLib


Apache HAWQ

(图10)

如上图所示。MADLib是一个非常完善的并行机器学习和数据挖掘库。支持多种各种机器学习和统计分析方法。HAWQ原生支持MADLib。现在MADLib是一个独立的Apache项目,基本包含了所有常用的机器学习方法。

三、HAWQ中短期规划


HAWQ团队短期内专注于2.0GA。长期来看我们会做以下几个方面的工作:

  1. 跨数据中心的灾难恢复
  2. 分布式索引支持
  3. 快照支持
  4. 与更多其他生态系统进行集成
  5. 对新硬件的支持进一步提高性能:GPU等

四、贡献到Apache HAWQ社区


HAWQ是一个Apache开源项目,希望得到更多社区的人能够参与进来。来自社区的贡献不局限于贡献代码,也可以贡献测试,文档,提Bug JIRA,提供功能需求等等。现在国内对Apache开源社区的贡献还不是很多,希望大家能够一块推动国内开源社区的发展。

对Apache项目做贡献方式的比较简单,在我们的Apache JIRA系统中(https://issues.apache.org/jira/browse/HAWQ)开一个JIRA。然后给出你的解决方法。如果是代码的话,可以使用github提交一个Pull Request。具具体步骤可以参见我们在Apache wiki网站上的流程(https://cwiki.apache.org/confluence/display/HAWQ),在提交代码以后,HAWQ committer会和你一起合作把代码提交。如果你有足够多的贡献的话,并且也想成为Apache Committer,HAWQ PMC会有有一个投票过程表决,保证公平与公正。

所有功能的开发讨论都发布在JIRA和邮件列表中。下面是Apache HAWQ主要网址以及大家可以订阅的邮件列表:

  1. Website: http://hawq.incubator.apache.org/
  2. Wiki: https://cwiki.apache.org/confluence/display/HAWQ
  3. Repo: https://github.com/apache/incubator-hawq.git
  4. JIRA: https://issues.apache.org/jira/browse/HAWQ
  5. Mailing lists: dev@hawq.incubator.apache.org 和 user@hawq.incubator.apache.org 订阅方法: 发送邮件到 dev-subscribe@hawq.incubator.apache.org 和 user-subscribe@hawq.incubator.apache.org

我们在国内有一个“大数据社区”会组织meetup讨论HAWQ以及其他生态系统的最新进展。网址为:http://www.meetup.com/Big-Data-Community-China/“大数据社区”博客:http://blog.csdn.net/bigdatacommunity (具有更多HAWQ及大数据相关技术文章)

分享到:
评论

相关推荐

    incubator-hawq-master.zip

    "incubator-hawq-master.zip"是一个包含Apache Hawq源代码的压缩包,适用于开发者进行安装和定制。在这个压缩文件中,你将找到构建和配置Hawq所需的所有组件。 Hawq的设计目标是为大规模数据处理提供企业级的SQL...

    一篇文章掌握Sql-On-Hadoop核心技术

    SQL-on-Hadoop技术的核心在于提供在Hadoop生态系统中运行SQL查询的能力,以便高效地处理大数据。这一领域有多种系统,每个都有其特定的优势和适用场景。以下是对文章内容的详细阐述: 1. SQL On Hadoop 分类: - *...

    hawq:Apache HAWQ

    CI过程地位Travis CI构建 Apache版本审核工具( ) 覆盖范围静态分析 | | | | | |Apache HAWQ Apache HAWQ是Hadoop原生SQL查询引擎,结合了MPP数据库的关键技术优势以及Hadoop可伸缩性和便利性。 HAWQ从本地读取数据...

    大数据+常雷-新一代数据仓库:Apache+HAWQ

    HAWQ通过其与Apache开源社区的结合,利用其强大的MPP架构和Hadoop生态系统的数据处理能力,为用户提供了更为强大和灵活的数据仓库解决方案。 总结来说,HAWQ作为新一代数据仓库技术,不仅拥有传统数据仓库在数据...

    大数据资料集锦

    Hadoop集群监控与Hive高可用,Hadoop现场演示与编程过程,hadoop中文版API,HAWQ, 分布式SQL数据库引擎原生基于Hadoop HDFS,QCon-曹龙-Hadoop2.0应用-基于Yarn的淘宝海量数据服务平台V03,高可用性的HDFS-Hadoop...

    tez about hadoop-2.7.1

    - 实时查询服务,如使用Impala或Hawq等SQL-on-Hadoop工具。 综上所述,Tez在Hadoop-2.7.1中扮演着提升大数据处理效率的重要角色,通过其灵活的任务执行模型和与YARN的紧密集成,为开发人员提供了高效、低延迟的...

    主流开源SQL引擎分析.docx

    Apache Hive作为Hadoop生态系统中的早期SQL框架,由Facebook在2007年推出,并于2008年捐赠给Apache软件基金会。Hive最初的设计目的是为了方便数据仓库的工作,通过HQL提供对Hadoop数据的SQL接口。随着时间的发展,...

    hawq权威最新介绍

    从那时起,HAWQ逐渐发展成为一个成熟的系统,它利用Hadoop生态系统中的组件,提供了一个原生的SQL查询引擎,并且提供了高级的数据分析功能。 HAWQ的技术架构中,其主要组件包括HAWQ Master、HAWQ Segment以及...

    hawq 详细安装手册

    HAWQ被设计用来处理PB级别的数据,并且与Apache Hadoop生态系统紧密集成,能够与Hive、Pig等工具无缝协作。在本安装手册中,我们将详细介绍如何在CentOS7环境下安装和配置HAWQ 2.3.0或更高版本。 一、环境准备 在...

    hawq feature testing guide

    它基于Apache Hadoop生态系统,能够高效地执行复杂的SQL查询。 #### 二、单元测试 单元测试是确保代码质量的重要步骤之一。为了执行HAWQ的单元测试,你需要遵循以下步骤: 1. **导航到源代码目录**: ```bash ...

    藏经阁-云时代大数据管理引擎HAWQ++.pdf

    阿里云的HAWQ++是云时代大数据管理领域的一个强大引擎,它源于原生的Hadoop并行SQL引擎,经过多次迭代升级,如GoH、HAWQ Alpha、HAWQ 1.0和1.x,最终发展为HAWQ 2.0,并在Apache孵化器中进一步成熟。偶数科技的HAWQ+...

    pivotalHD hawq admin.pdf

    HAWQ(Hortonworks Analytics Warehouse)是一个用于大数据分析的开源SQL查询引擎,它建立在Hadoop之上,提供了与传统数据库类似的性能和操作。 从提供的部分内容来看,这份手册覆盖了HAWQ的基础架构、查询处理、...

    ELK与HAWQ综合对比_20230209.docx

    ELK(FusionInsight-ELK)是一款分布式交互查询分析数据仓库引擎,支持标准的 SQL2003 规范,提供高性能的 HDFS 结构化数据的即时及复杂分析查询功能。ELK 是 FusionInsight HD 提供标准 SQL 接口的即时查询组件。 ...

    hawq compiling guide

    ### HAWQ编译指南:Greenplum与大数据处理 #### 概述 HAWQ(Highly Advanced Warehouse Query)是Greenplum数据库的一个组件,主要用于处理大规模并行处理(MPP)的数据仓库任务。本指南旨在提供在CentOS环境下...

    Hawq_white pater

    Hawq对MPP架构的应用体现在其分布式执行引擎的设计上,这个引擎能够充分利用Hadoop集群的计算资源,执行复杂的SQL查询操作。 Hawq架构的另一个关键点是其存储层,这与Hadoop的核心存储系统HDFS紧密集成。HDFS是一个...

    开源推动下Apache ShardingSphere架构演进——潘娟.pdf

    ShardingSphere作为Apache软件基金会的一员,积极参与了中国区的Apache项目,如Apache CarbonData、Dubbo、Eagle、Griffin、HAWQ、Kylin、RocketMQ等,共同推动开源技术的发展。 总结来说,Apache ShardingSphere是...

    hawq安装和使用

    ### HAWQ安装与使用详解 #### 概述 本文档旨在为用户提供关于Pivotal HAWQ...通过以上章节的详细介绍,读者可以了解到HAWQ 1.3.1版本的核心特性、安装流程及使用要点,从而更好地利用这款强大的数据分析工具。

    gemfire-hawq-adapter-web:代理 GemFire REST API 并将 JSON 响应转换为适合在 HAWQ 中导入的表格格式(如 CSV、TSV)的 Web 应用程序

    Gemfire-Hawq-Adapter-Web 是一个专为数据处理和分析设计的强大工具,它通过代理 GemFire 的 REST API 实现了对分布式内存数据网格 GemFire 的高效访问,并将返回的 JSON 数据转换为适合在 HAWQ(High-Performance ...

    云端数据仓库HashData的设计与实现

    与传统的基于Hadoop的处理方式相比,现代云端数据仓库正趋向于使用更高效的数据处理引擎,比如采用Apache HAWQ这样的SQL-on-Hadoop技术,来提供更优化的查询性能。HAWQ是在大规模并行处理(MPP)架构上实现的,专门...

Global site tag (gtag.js) - Google Analytics