`
阅读更多
ETL(Extract-Transform-Load的缩写,即数据抽取、转换、装载的过程)作为BI/DW(Business Intelligence)的核心和灵魂,能够按照统一的规则集成并提高数据的价值,是负责完成数据从数据源向目标数据仓库转化的过程,是实施数据仓库的重要步骤。如果说数据仓库的模型设计是一座大厦的设计蓝图,数据是砖瓦的话,那么ETL就是建设大厦的过程。在整个项目中最难部分是用户需求分析和模型设计,而ETL规则设计和实施则是工作量最大的,约占整个项目的60%~80%,这是国内外从众多实践中得到的普遍共识。

      ETL是数据抽取(Extract)、转换(Transform)、清洗(Cleansing)、装载(Load)的过程。是构建数据仓库的重要一环,用户从数据源抽取出所需的数据,经过数据清洗,最终按照预先定义好的数据仓库模型,将数据加载到数据仓库中去。

  信息是现代企业的重要资源,是企业运用科学管理、决策分析的基础。目前,大多数企业花费大量的资金和时间来构建联机事务处理OLTP的业务系统和办公自动化系统,用来记录事务处理的各种相关数据。据统计,数据量每2~3年时间就会成倍增长,这些数据蕴含着巨大的商业价值,而企业所关注的通常只占在总数据量的2%~4%左右。因此,企业仍然没有最大化地利用已存在的数据资源,以致于浪费了更多的时间和资金,也失去制定关键商业决策的最佳契机。于是,企业如何通过各种技术手段,并把数据转换为信息、知识,已经成了提高其核心竞争力的主要瓶颈。而ETL则是主要的一个技术手段。如何正确选择ETL工具?如何正确应用ETL?

  目前,ETL工具的典型代表有:Informatica、Datastage、OWB、微软DTS……

  数据集成:快速实现ETL

  ETL的质量问题具体表现为正确性、完整性、一致性、完备性、有效性、时效性和可获取性等几个特性。而影响质量问题的原因有很多,由系统集成和历史数据造成的原因主要包括:业务系统不同时期系统之间数据模型不一致;业务系统不同时期业务过程有变化;旧系统模块在运营、人事、财务、办公系统等相关信息的不一致;遗留系统和新业务、管理系统数据集成不完备带来的不一致性。

  实现ETL,首先要实现ETL转换的过程。它可以集中地体现为以下几个方面:

  空值处理 可捕获字段空值,进行加载或替换为其他含义数据,并可根据字段空值实现分流加载到不同目标库。

  规范化数据格式 可实现字段格式约束定义,对于数据源中时间、数值、字符等数据,可自定义加载格式。

  拆分数据 依据业务需求对字段可进行分解。例,主叫号 861084613409,可进行区域码和电话号码分解。

  验证数据正确性 可利用Lookup及拆分功能进行数据验证。例如,主叫号861084613409,进行区域码和电话号码分解后,可利用Lookup返回主叫网关或交换机记载的主叫地区,进行数据验证。

  数据替换 对于因业务因素,可实现无效数据、缺失数据的替换。

  Lookup 查获丢失数据 Lookup实现子查询,并返回用其他手段获取的缺失字段,保证字段完整性。

  建立ETL过程的主外键约束 对无依赖性的非法数据,可替换或导出到错误数据文件中,保证主键惟一记录的加载。

  为了能更好地实现ETL,笔者建议用户在实施ETL过程中应注意以下几点:

  第一,如果条件允许,可利用数据中转区对运营数据进行预处理,保证集成与加载的高效性;

  第二,如果ETL的过程是主动“拉取”,而不是从内部“推送”,其可控性将大为增强;

  第三,ETL之前应制定流程化的配置管理和标准协议;

  第四,关键数据标准至关重要。目前,ETL面临的最大挑战是当接收数据时其各源数据的异构性和低质量。以电信为例,A系统按照统计代码管理数据,B系统按照账目数字管理,C系统按照语音ID管理。当ETL需要对这三个系统进行集成以获得对客户的全面视角时,这一过程需要复杂的匹配规则、名称/地址正常化与标准化。而ETL在处理过程中会定义一个关键数据标准,并在此基础上,制定相应的数据接口标准。

  ETL过程在很大程度上受企业对源数据的理解程度的影响,也就是说从业务的角度看数据集成非常重要。一个优秀的ETL设计应该具有如下功能:

  管理简单;采用元数据方法,集中进行管理;接口、数据格式、传输有严格的规范;尽量不在外部数据源安装软件;数据抽取系统流程自动化,并有自动调度功能;抽取的数据及时、准确、完整;可以提供同各种数据系统的接口,系统适应性强;提供软件框架系统,系统功能改变时,应用程序很少改变便可适应变化;可扩展性强。


  数据模型:标准定义数据


  合理的业务模型设计对ETL至关重要。数据仓库是企业惟一、真实、可靠的综合数据平台。数据仓库的设计建模一般都依照三范式、星型模型、雪花模型,无论哪种设计思想,都应该最大化地涵盖关键业务数据,把运营环境中杂乱无序的数据结构统一成为合理的、关联的、分析型的新结构,而ETL则会依照模型的定义去提取数据源,进行转换、清洗,并最终加载到目标数据仓库中。

  模型的重要之处在于对数据做标准化定义,实现统一的编码、统一的分类和组织。标准化定义的内容包括:标准代码统一、业务术语统一。ETL依照模型进行初始加载、增量加载、缓慢增长维、慢速变化维、事实表加载等数据集成,并根据业务需求制定相应的加载策略、刷新策略、汇总策略、维护策略。


  元数据:拓展新型应用


  对业务数据本身及其运行环境的描述与定义的数据,称之为元数据(metadata)。元数据是描述数据的数据。从某种意义上说,业务数据主要用于支持业务系统应用的数据,而元数据则是企业信息门户、客户关系管理、数据仓库、决策支持和B2B等新型应用所不可或缺的内容。

  元数据的典型表现为对象的描述,即对数据库、表、列、列属性(类型、格式、约束等)以及主键/外部键关联等等的描述。特别是现行应用的异构性与分布性越来越普遍的情况下,统一的元数据就愈发重要了。“信息孤岛”曾经是很多企业对其应用现状的一种抱怨和概括,而合理的元数据则会有效地描绘出信息的关联性。

  而元数据对于ETL的集中表现为:定义数据源的位置及数据源的属性、确定从源数据到目标数据的对应规则、确定相关的业务逻辑、在数据实际加载前的其他必要的准备工作,等等,它一般贯穿整个数据仓库项目,而ETL的所有过程必须最大化地参照元数据,这样才能快速实现ETL。

  ETL体系结构

  下图为ETL体系结构,它体现了主流ETL产品框架的主要组成部分。ETL是指从源系统中提取数据,转换数据为一个标准的格式,并加载数据到目标数据存储区,通常是数据仓库。

  ETL体系结构图

  Design manager 提供一个图形化的映射环境,让开发者定义从源到目标的映射关系、转换、处理流程。设计过程的各对象的逻辑定义存储在一个元数据资料库中。

  Meta data management 提供一个关于ETL设计和运行处理等相关定义、管理信息的元数据资料库。ETL引擎在运行时和其它应用都可参考此资料库中的元数据。

  Extract 通过接口提取源数据,例如ODBC、专用数据库接口和平面文件提取器,并参照元数据来决定数据的提取及其提取方式。

  Transform 开发者将提取的数据,按照业务需要转换为目标数据结构,并实现汇总。

  Load 加载经转换和汇总的数据到目标数据仓库中,可实现SQL或批量加载。

  Transport services 利用网络协议或文件协议,在源和目标系统之间移动数据,利用内存在ETL处理的各组件中移动数据。

  Administration and operation 可让管理员基于事件和时间进行调度、运行、监测ETL作业、管理错误信息、从失败中恢复和调节从源系统的输出。
分享到:
评论

相关推荐

    ETL详解.docx

    ETL 与大数据的关系紧密,因为大数据的处理往往涉及大量、多样化的数据整合,而这正是 ETL 技术的核心应用。随着大数据技术的发展,传统的 ETL 过程已经不能满足实时或近实时的数据处理需求。大数据环境下的 ETL ...

    数据仓库ETL算法详解

    1. ETL的定义:是数据抽取(Extract)、转换(Transform)、清洗(Cleansing)、装载(Load)的过程。是构建数据仓库的重要一环,用户从数据源抽取出所需的数据,经过数据清洗,最终按照预先定义好的数据仓库模型,将数据...

    【MapReduce篇07】MapReduce之数据清洗ETL1

    MapReduce之数据清洗ETL详解 MapReduce是一种基于Hadoop的分布式计算框架,广泛应用于大数据处理领域。数据清洗(Data Cleaning)是数据处理过程中非常重要的一步,旨在清洁和转换原始数据,使其更加可靠和有用。...

    SQL_Server_2008之ETL技术详解.docx

    【SQL Server 2008 ETL技术详解】 在数据仓库和商业智能领域,ETL(Extract, Transform, Load)是核心过程,它涉及从不同数据源抽取数据、转换数据以适应目标系统的要求,以及加载数据到数据仓库或数据湖。SQL ...

    ETL设计详解(数据抽取、清洗与转换).docx

    ETL 设计详解(数据抽取、清洗与转换) ETL(Extract、Transform、Load)是 Business Intelligence(BI)项目中最重要的一个环节,占据整个项目时间的1/3。ETL 的设计分三部分:数据抽取、数据清洗转换、数据加载。...

    详解BI项目中的ETL

    ETL,全称为Extract, Transform, Load,是数据仓库(DW)建设中不可或缺的一个关键步骤。在BI(Business Intelligence)项目中,ETL扮演着整合数据、为决策支持提供准确信息的角色。通常,ETL约占整个项目工作量的三...

    BI ETL ELT Kettle 基础知识中文文档汇总

    BI ETL ELT Kettle 基础知识中文文档汇总 BI项目中ETL设计与思考.pdf ... 数据仓库ETL模式详解.ppt 数据仓库建模与ETL实践技巧.pdf 睿智ETL交流.pdf 第三章_数据仓库中的ETL和元数据.pptx 面试ETL题总汇.pdf

    达梦ETL批量流程向导

    #### 三、操作流程详解 ##### 1. **第一步:新建模板和目录** 在开始之前,首先需要创建一个新的模板和目录。模板用于定义数据转换的具体规则,而目录则用来组织和管理这些模板。用户可以根据不同的业务场景或数据...

    数据仓库ETL工具箱 Data Warehouse ETL Toolkit.rar

    1. **ETL过程详解**: - **提取(Extract)**:这是ETL的第一步,涉及到从各种业务系统或数据库中获取原始数据。这可能包括关系型数据库、Excel文件、XML文档等。数据提取通常通过SQL查询、API调用或文件导入实现。...

    2个ETL面试题选集

    1. **ETL流程详解** - 抽取:这一阶段涉及从各种来源(如数据库、Excel文件、API等)获取原始数据。抽取可以是实时的,也可以是批量的。 - 转换:数据清洗、格式标准化、缺失值处理、异常检测、数据类型转换等都...

    BatchLoad:Spring Batch ETL

    **Spring Batch ETL详解** Spring Batch 是一个强大的Java框架,专为处理批量数据而设计,尤其在企业级应用中广泛使用。ETL(Extract, Transform, Load)是数据处理过程中的三个关键步骤,即数据抽取、转换和加载。...

    大数据采集及ETL数据清洗实现(全套视频+课件讲义+代码)

    常见网站日志生成过程业务详解 企业数据采集方案介绍 Flume拦截器、channel选择器、sink 处理器回顾 Flume实现日志采集到HDFS并自动分区 定时调度Shell脚本实现日志数据分区上传HDFS ETL实现思路分析 ETL中Driver类...

    ETl资料非常实在大全

    1. **ETLReport.pdf**:这可能是一份关于ETL的综合报告,涵盖了ETL的定义、重要性、工作原理、流程详解,以及在不同业务场景下的应用案例。 2. **ETL基本操作手冊990617_文件1.pdf**:这很可能是ETL的基础操作手册...

    ETL数据加载策略_12345

    一、ETL过程详解 1. 提取(Extract):这是ETL流程的第一步,涉及从各种源头获取数据。这些源头可能包括关系数据库、文件、API、日志文件等。提取过程中需要考虑的关键点包括数据源的稳定性、访问权限以及数据抽取...

    ETL.rar_etl_etl如何使用

    ETL的三个阶段详解: 1. 抽取(Extract):这一阶段是从不同的源系统中获取数据。源系统可能是关系数据库、文本文件、Excel表格、API接口等。抽取过程中需要考虑数据的实时性、数据量以及源系统的性能影响,选择...

    ETL数据整合与处理(Kettle)_PPT课件.rar

    ETL过程详解** - **抽取(Extract)**: 这是ETL的第一步,涉及从各种来源获取数据。这可能包括从数据库、文件、Web服务或者甚至是其他系统中读取数据。Kettle提供了多种输入步骤,如“表输入”、“文本文件输入”等...

    用于ETL的Python数据转换工具详解

    在构建数据仓库系统时,ETL(Extract, Transform, Load)是至关重要的步骤,它负责从各种数据源抽取数据,进行必要的转换,并将其加载到目标系统中,如数据仓库。ETL过程对于大规模数据处理和数据整合解决方案尤其...

Global site tag (gtag.js) - Google Analytics