`
taskctl2012
  • 浏览: 11866 次
  • 性别: Icon_minigender_1
  • 来自: 成都
文章分类
社区版块
存档分类
最新评论

什么是ETL?算了,你可能不懂

阅读更多

ETL是将业务系统的数据经过抽取、清洗转换之后加载到数据仓库的过程,目的是将企业中的分散、零乱、标准不统一的数据整合到一起,为企业的决策提供分析依据。

ETL是BI项目重要的一个环节。通常情况下,在BI项目中ETL会花掉整个项目至少1/3的时间,ETL设计的好坏直接关接到BI项目的成败。

ETL的设计分三部分:数据抽取、数据的清洗转换、数据的加载。在设计ETL的时候我们也是从这三部分出发。数据的抽取是从各个不同的数据源抽取到ODS (Operational Data Store,操作型数据存储) 中——这个过程也可以做一些数据的清洗和转换,在抽取的过程中需要挑选不同的抽取方法,尽可能的提高ETL的运行效率。

ETL三个部分中,花费时间最长的是“T”(Transform,清洗、转换) 的部分,一般情况下这部分工作量是整个ETL的2/3。数据的加载一般在数据清洗完了之后直接写入DW (Data Warehousing,数据仓库) 中去。

ETL的实现有多种方法,常用的有三种。一种是借助ETL工具 (如:Oracle的OWB、SQL Server 2000 的 DTS、SQL Server2005 的SSIS服务、Informatic等) 实现,一种是SQL方式实现,另外一种是ETL工具和SQL相结合。

前两种方法各有各的优缺点,借助工具可以快速的建立起ETL工程,屏蔽了复杂的编码任务,提高了速度,降低了难度,但是缺少灵活性。SQL的方法优点是灵活,提高ETL运行效率,但是编码复杂,对技术要求比较高。第三种是综合了前面二种的优点,会极大地提高ETL的开发速度和效率。

 

数据的抽取(Extract)

这一部分需要在调研阶段做大量的工作,首先要搞清楚数据是从几个业务系统中来,各个业务系统的数据库服务器运行什么DBMS,是否存在手工数据,手工数据量有多大,是否存在非结构化的数据等等,当收集完这些信息之后才可以进行数据抽取的设计。

对于与存放DW的数据库系统相同的数据源处理方法

这一类数据源在设计上比较容易。一般情况下,DBMS (SQLServer、Oracle) 都会提供数据库链接功能,在DW数据库服务器和原业务系统之间建立直接的链接关系就可以写Select 语句直接访问。

对于与DW数据库系统不同的数据源的处理方法

对于这一类数据源,一般情况下也可以通过ODBC的方式建立数据库链接——如SQL Server和Oracle之间。如果不能建立数据库链接,可以有两种方式完成,一种是通过工具将源数据导出成.txt或者是.xls文件,然后再将这些源系统文件导入到ODS中。另外一种方法是通过程序接口来完成。

对于文件类型数据源(.txt,.xls),可以培训业务人员利用数据库工具将这些数据导入到指定的数据库,然后从指定的数据库中抽取。或者还可以借助工具实现。

增量更新的问题

对于数据量大的系统,必须考虑增量抽取。一般情况下,业务系统会记录业务发生的时间,我们可以用来做增量的标志,每次抽取之前首先判断ODS中记录最大的时间,然后根据这个时间去业务系统取大于这个时间所有的记录。利用业务系统的时间戳,一般情况下,业务系统没有或者部分有时间戳。

 

数据的清洗转换(Cleaning、Transform)

一般情况下,数据仓库分为ODS、DW两部分。通常的做法是从业务系统到ODS做清洗,将脏数据和不完整数据过滤掉,在从ODS到DW的过程中转换,进行一些业务规则的计算和聚合。

数据清洗

数据清洗的任务是过滤那些不符合要求的数据,将过滤的结果交给业务主管部门,确认是否过滤掉还是由业务单位修正之后再进行抽取。

不符合要求的数据主要是有不完整的数据、错误的数据、重复的数据三大类。

(1)不完整的数据:这一类数据主要是一些应该有的信息缺失,如供应商的名称、分公司的名称、客户的区域信息缺失、业务系统中主表与明细表不能匹配等。对于这一类数据过滤出来,按缺失的内容分别写入不同Excel文件向客户提交,要求在规定的时间内补全。补全后才写入数据仓库。

(2)错误的数据:这一类错误产生的原因是业务系统不够健全,在接收输入后没有进行判断直接写入后台数据库造成的,比如数值数据输成全角数字字符、字符串数据后面有一个回车操作、日期格式不正确、日期越界等。这一类数据也要分类,对于类似于全角字符、数据前后有不可见字符的问题,只能通过写SQL语句的方式找出来,然后要求客户在业务系统修正之后抽取。日期格式不正确的或者是日期越界的这一类错误会导致ETL运行失败,这一类错误需要去业务系统数据库用SQL的方式挑出来,交给业务主管部门要求限期修正,修正之后再抽取。

(3)重复的数据:对于这一类数据——特别是维表中会出现这种情况——将重复数据记录的所有字段导出来,让客户确认并整理。

数据清洗是一个反复的过程,不可能在几天内完成,只有不断的发现问题,解决问题。对于是否过滤,是否修正一般要求客户确认,对于过滤掉的数据,写入Excel文件或者将过滤数据写入数据表,在ETL开发的初期可以每天向业务单位发送过滤数据的邮件,促使他们尽快地修正错误,同时也可以做为将来验证数据的依据。数据清洗需要注意的是不要将有用的数据过滤掉,对于每个过滤规则认真进行验证,并要用户确认。

数据转换

数据转换的任务主要进行不一致的数据转换、数据粒度的转换,以及一些商务规则的计算。

(1)不一致数据转换:这个过程是一个整合的过程,将不同业务系统的相同类型的数据统一,比如同一个供应商在结算系统的编码是XX0001,而在CRM中编码是YY0001,这样在抽取过来之后统一转换成一个编码。

(2)数据粒度的转换:业务系统一般存储非常明细的数据,而数据仓库中数据是用来分析的,不需要非常明细的数据。一般情况下,会将业务系统数据按照数据仓库粒度进行聚合

(3)商务规则的计算:不同的企业有不同的业务规则、不同的数据指标,这些指标有的时候不是简单的加加减减就能完成,这个时候需要在ETL中将这些数据指标计算好了之后存储在数据仓库中,以供分析使用。

 

ETL日志、警告发送

ETL日志

ETL日志分为三类:

一类是执行过程日志,这一部分日志是在ETL执行过程中每执行一步的记录,记录每次运行每一步骤的起始时间,影响了多少行数据,流水账形式。

一类是错误日志,当某个模块出错的时候写错误日志,记录每次出错的时间、出错的模块以及出错的信息等。

第三类日志是总体日志,只记录ETL开始时间、结束时间是否成功信息。如果使用ETL工具,ETL工具会自动产生一些日志,这一类日志也可以作为ETL日志的一部分。

记录日志的目的是随时可以知道ETL运行情况,如果出错了,可以知道哪里出错。

警告发送

如果ETL出错了,不仅要形成ETL出错日志,而且要向系统管理员发送警告。发送警告的方式多种,一般常用的就是给系统管理员发送邮件,并附上出错的信息,方便管理员排查错误。

ETL是BI项目的关键部分,也是一个长期的过程,只有不断的发现问题并解决问题,才能使ETL运行效率更高,为BI项目后期开发提供准确与高效的数据。

 

后记

做数据仓库系统,ETL是关键的一环。说大了,ETL是数据整合解决方案,说小了,就是倒数据的工具。回忆一下工作这么长时间以来,处理数据迁移、转换的工作倒还真的不少。但是那些工作基本上是一次性工作或者很小数据量。可是在数据仓库系统中,ETL上升到了一定的理论高度,和原来小打小闹的工具使用不同了。究竟什么不同,从名字上就可以看到,人家已经将倒数据的过程分成3个步骤,E、T、L分别代表抽取、转换和装载。

其实ETL过程就是数据流动的过程,从不同的数据源流向不同的目标数据。但在数据仓库中,

ETL有几个特点:

一是数据同步,它不是一次性倒完数据就拉到,它是经常性的活动,按照固定周期运行的,甚至现在还有人提出了实时ETL的概念。

二是数据量,一般都是巨大的,值得你将数据流动的过程拆分成E、T和L。

现在有很多成熟的工具提供ETL功能,且不说他们的好坏。从应用角度来说,ETL的过程其实不是非常复杂,这些工具给数据仓库工程带来和很大的便利性,特别是开发的便利和维护的便利。但另一方面,开发人员容易迷失在这些工具中。

举个例子,VB是一种非常简单的语言并且也是非常易用的编程工具,上手特别快,但是真正VB的高手有多少?微软设计的产品通常有个原则是“将使用者当作傻瓜”,在这个原则下,微软的东西确实非常好用,但是对于开发者,如果你自己也将自己当作傻瓜,那就真的傻了。

ETL工具也是一样,这些工具为我们提供图形化界面,让我们将主要的精力放在规则上,以期提高开发效率。从使用效果来说,确实使用这些工具能够非常快速地构建一个job来处理某个数据,不过从整体来看,并不见得他的整体效率会高多少。

问题主要不是出在工具上,而是在设计、开发人员上。他们迷失在工具中,没有去探求ETL的本质。可以说这些工具应用了这么长时间,在这么多项目、环境中应用,它必然有它成功之处,它必定体现了ETL的本质。

如果我们不透过表面这些工具的简单使用去看它背后蕴涵的思想,最终我们作出来的东西也就是一个个独立的job,将他们整合起来仍然有巨大的工作量。大家都知道“理论与实践相结合”,如果在一个领域有所超越,必须要在理论水平上达到一定的高度.

0
0
分享到:
评论

相关推荐

    ETL之kettle实现异构库表的数据增删改功能

    ETL之kettle实现异构库表的数据增删改功能

    Etl---Kettle(入门教程)超详细

    最近,了解了一下关于ETL的工具,这也是我从不懂到慢慢入门一步步整理的,以下是我亲自制作的ppt,给导成pdf了,但...,有水印!额.......大家将就着看吧! 如果小伙伴们有需要PPT可以私聊我,如果有什么问题的也...

    基于spark的统一离线ETL框架+源代码+文档说明

    不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! <项目介绍> 1、该资源内项目代码都经过测试运行成功,...

    ETL工具pdi-7.1.0.0-12(Kettle).zip

    **ETL工具PDI(Kettle)详解** ETL(Extract, Transform, Load)是数据仓库建设中的核心过程,用于从各种数据源提取数据,经过转换处理,最终加载到目标数据库或数据仓库中。PDI,全称为Pentaho Data Integration,...

    基于Spark的ETL批量抽取入数程序+源代码+文档说明

    不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! <项目介绍> 1、该资源内项目代码都经过测试运行成功,...

    基于分布式爬虫,采集互联网公开来源的金融类新闻和文档类文本; 基于文本挖掘技术,进行无监督/半监督学习的数据ETL与特征工程; 基于金融数据挖掘技术,进行宏观经济分析,基本面分析与行业分析

    不懂运行,下载完可以私聊问,可远程教学 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校...

    Spark SQL方言,增强了批处理、机器学习、模型服务等语义;统一SQL语法,提供个ETL、机器学习和推荐系统的框架+源代码

    不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! <项目介绍> 1、该资源内项目代码都经过测试运行成功,...

    Oracle2Oceanbase数据迁移示例,多表迁移

    在这个案例中,我们看到几个关键的文件,它们可能是用于自动化这个过程的Kettle工具(Pentaho Data Integration,PDI)的工作流和转换文件。 1. **Start_Oracle2Oceanbase.kjb**:这是一个Kettle的作业(Job)文件...

    kettle统计重复记录个数及明细

    "如有不懂的地方可随时联系",这表明Kettle社区和资源可以提供帮助。你可以在Pentaho官方论坛、Stack Overflow或其他相关技术社区寻求解答,或者直接联系提供此服务的人,他们可能会提供更具体的指导和帮助。 通过...

    kettle批量解析多个xml文件

    Kettle是一款开源的数据集成工具,它提供了丰富的转换和作业来实现数据抽取、转换和加载(ETL)任务。在本场景中,我们关注的是如何通过Kettle解析大量XML文件并将数据导入到Oracle数据库。 描述中提到的“批量数据...

    数据仓库技术.pptx

    这种模型使得即使不懂分布式编程的开发者也能在分布式系统上运行程序。 总的来说,数据仓库技术是一个涵盖硬件、软件和算法的复杂领域,涉及多个层面的选择和优化,对于企业数据驱动的决策至关重要。不同的架构和...

    基于标签的用户行为日志大数据分析系统完整python源码+数据库SQL+数据+文档说明.zip

    不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! 1、该资源内项目代码都经过测试运行成功,功能ok的情况...

    kettle循环导出数据到Excel中

    在IT行业中,Kettle(又称为Pentaho Data Integration,简称PDI)是一款强大的ETL(提取、转换、加载)工具,广泛应用于数据仓库和大数据处理。Oracle则是一款知名的数据库管理系统,常常作为数据源被Kettle所使用。...

    一张图看懂Hive

    通过Hive,用户可以通过类似SQL的查询语言(HQL)来进行数据的提取、转换和加载(ETL),而不需要深入理解复杂的MapReduce编程。 ### Hive的关键特性 #### 更友好的接口 Hive提供了类似SQL的查询语言,降低了用户...

    最新版一文读懂数据中台架构建设体系图文详解(建议收藏).pdf

    尽管数据安全和共享可能引发矛盾,但在数据治理框架中,它们通常被分开管理,以保持数据管理的公正性和透明度。数据目录和数据管理是提升数据价值的关键,而数据质量控制确保数据的可靠性。 6. 数据安全框架 数据...

    Planning_for_Big_Data

    这个阶段需要处理的数据量往往非常巨大,数据格式也可能各不相同,这要求企业采用能够有效处理大规模数据集的技术和工具。Hadoop是一个广泛使用的开源框架,它允许以分布式存储和处理大规模数据集。除此之外,数据...

    DAMA-CDGA认证考试之DMBOK2.0学习笔记.pdf

    这可能涉及到ETL(提取、转换、加载)工具和API设计。 9. **文件和内容管理**(2分):文件和内容管理关注非结构化数据的组织、存储和检索,例如文档、图像和视频,以及内容生命周期管理。 10. **参考数据和主数据...

    大型B2C商城项目数据库实战Oracle代码实现

    在Oracle数据库实现中,ETL(Extract, Transform, Load)过程可能用于数据清洗、转换和加载。例如,可以使用PL/SQL编写存储过程来处理数据导入导出,使用物化视图进行实时数据分析,或者通过DBMS_SCHEDULER安排定期...

    kettle 9.2 各版本 drivers

    Kettle,全称为Pentaho Data Integration(PDI),是一款强大的ETL(Extract, Transform, Load)工具,用于数据整合和迁移。它以其图形化的界面、灵活的数据处理能力和跨平台的特性深受用户喜爱。在9.2这个版本中,...

Global site tag (gtag.js) - Google Analytics