`
大涛学长
  • 浏览: 105677 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Kafka数据如何同步至MaxCompute之实践讲解

阅读更多
**摘要:**本次分享主要介绍Kafka产品的原理和使用方式,以及同步数据到MaxCompute的参数介绍、独享集成资源组与自定义资源组的使用背景和配置方式、Kafka同步数据到MaxCompute的开发到生产的整体部署操作等内容。

**演讲嘉宾简介:**耿江涛,阿里云智能技术支持工程师

**以下内容根据演讲视频以及PPT整理而成。** 
**本次分享主要围绕以下两个方面:**

**一、背景介绍** 
**二、具体操作流程** 
**1.Kafka消息队列使用以及原理** 
**2.资源组介绍以及配置** 
**3.同步过程及其注意事项 ** 
**4.开发测试以及生产部署**

**一、背景介绍** 
**1\. 实验目的** 
在日常工作中,很多企业将APP或网站产生的行为日志和业务数据通过Kafka收集之后做两方面的处理。一方面是离线处理,一方面是实时处理。并且一般会投递到MaxCompute中作为模型的构建,进行相关的业务处理,如用户的特征、销售排名、订单地区分布等。这些数据形成之后会在数据报表中作为展示。

**2\. 方案说明** 
Kafka数据同步到DataWorks有两条链路。一条链路是业务数据和行为日志通过Kafka,再通过Flume 上传到Datahub,以及Max Compute,最终在QuickBI进行展示。另一条链路是业务数据和行为日志通过Kafka以及DataWorks,MaxCompute,最终在QuickBI当中展示。 
本次展示Kafka通过DataWorks上传到MaxCompute的流程。从DataWorks上传到MaxCompute是通过两种方案进行上传数据同步的。方案一是自定义资源组,方案二是独享资源组。自定义资源组一般适用于复杂网络的数据上云场景。独享资源组操作方式主要针对集成资源不足的情况。

![image](https://yqfile.alicdn.com/4b5c9287751761510b5df37aabb73b67974bb430.png)

**二、具体操作流程** 
**1.Kafka消息队列使用及其原理** 
**Kafka产品概述**:消息队列 for Apache Kafka 是阿里云提供的分布式、高吞吐、可扩展的消息队列服务。消息队列for Apache Kafka一般用于日志收集、监控数据聚合、流式数据处理、在线离线分析等大数据领域。消息队列 for Apache Kafka 针对开源的 Apache Kafka 提供全托管服务,彻底解决开源产品长期以来的痛点。云上Kafka具有低成本、更弹性、更可靠的优势,用户只需专注于业务开发,无需部署运维。

![image](https://yqfile.alicdn.com/c8c322501c202f5e03281dcc0cb30414c3353fea.png)

**Kafka架构介绍**:如下图所示,一个典型的Kafka集群主要分为四部分。Producer生产数据并通过 push 模式向消息队列 for Apache Kafka 的 Kafka Broker 发送消息。发送的消息可以是网站的页面访问、服务器日志,也可以是 CPU 和内存相关的系统资源信息。Kafka Broker用于存储消息的服务器。Kafka Broker 支持水平扩展。 Kafka Broker 节点的数量越多,Kafka 集群的吞吐率越高。Kafka Broker针对topic会partition一个概念,partition有leader、follower的角色分配。Consumer通过 pull 模式从消息队列 for Apache Kafka Broker 订阅并消费leader的信息数据。其中partition内部有offset作为消息的消费点位。通过ZooKeeper管理集群的配置、选举 leader 分区,并且在Consumer Group 发生变化时,管理partition\_leader的负载均衡。

![image](https://yqfile.alicdn.com/0665246af20396e2df955769a1c3c70209fedb24.png)

**Kafka消息队列购买以及部署:**如下图,用户首先可以到Kafka消息队列产品页面点击购买,根据个人情况选择对应包年、包月等消费方式、地区、实例类型、磁盘、流量以及消息存放时间。其中较为重要的一点是要选择对应地区,如果用户的MaxCompute在华北,那么尽量选择华北地区。选择开通完成后需要进行部署。点击部署,选择合适的VPC及其交换机进行部署。

![image](https://yqfile.alicdn.com/55ead9e104378075e0ac219e2957c5fe22517347.png)

部署完成后进入Kafka Topic管理页面,点击创建Topic输入自己的Topic。Topic命名下面有三条注意信息,命名尽量跟自己的业务一致,比如是财经业务或者是商务业务,尽量进行区分。第四步进入Consumer Group管理,点击创建Consumer Group创建自己所需要的Consumer Group。Consumer Group的命名也需要规范,如果是财经或商务业务,尽量和自己的Topic相对应。

![image](https://yqfile.alicdn.com/0b66700e05d0e4127a824df4f9a79d4fdca41859.png)

**Kafka白名单配置:**Kafka安装部署完成之后确认需要访问Kafka的服务器或产品的白名单。下图中的默认接入点即为访问接口。

![image](https://yqfile.alicdn.com/e13266b128eab1f070eb9c82d1dcffdeb15f5882.png)

**2.资源组介绍及其配置** 
**自定义资源组的使用背景:**自定义资源组一般针对IDC之间的网络问题。本地网络和云上网络存在差异,如DataWorks可以通过免费传输能力(默认任务资源组)进行海量数据上云,但默认资源组无法实现传输速度存在较高要求或复杂环境中的数据源同步上云的需求。此时用户可以使用自定义资源组可实现复杂环境同步上云的需求,解决DataWorks默 认资源组与您的数据源不通的问题,或实现更高速度的传输能力。然而,自定义资源组主要解决的还是复杂网络环境上云同步问题,打通任意网络环境之间的数据传输同步。

![image](https://yqfile.alicdn.com/60b0e402955aba113d65219266f115590e198660.png)

**自定义资源组的配置:**自定义资源组的配置需要六步操作,首先点击进入DataWorks控制台,点开工作空间的列表,选择用户需要的项目空间,点击进入数据集成,即确认自己的数据集成是要在哪个空间项目下进行添加。之后,点击进入数据源界面,点击新增自定义资源组。要注意页面右上角的新增自定义资源组是只有项目管理员有权限添加。

![image](https://yqfile.alicdn.com/5a1d5a4a76996dbfd29ff584270c7bad86207929.png)

第三步是确认Kafka与需要添加的自定义资源组属于同一个VPC下。本次实验是ECS向Kafka发送消息,二者的VPC应该一致。第四步登录ECS,即个人的自定义资源组。执行命令dmidecode|grep UUID得到ECS的UUID。

![image](https://yqfile.alicdn.com/45237c0639d2083d08cba8630979906db8e4547d.png)

第五步是将添加服务器UUID以及自定义资源组的IP或机器CPU和内存填写进来。最后是在ECS上执行相关命令,Agent安装共5步,做一一确认,在第4小步完成后点击刷新查看服务是否为可用状态。添加完成后进行检查连通测试,检查是否添加成功。

![image](https://yqfile.alicdn.com/adf5b90b97b53c86727a712c01a4807329168aba.png)

**独享资源组的使用背景:**一些客户反映在Kafka同步到MaxCompute时会报资源不足的问题,可以通过新增独享资源组的方式进行数据同步。独享资源模式下,机器的物理资源(网络、磁盘、CPU和内存等)完全独享。不仅可以隔离用户间的资源使用,也可以隔离不同工作空间任务的资源使用。此外,独享资源也支持灵活的扩容、缩容功能,可以满足资源独  
享、灵活配置等需求。独享资源组可以访问在同一地域下的VPC数据源,同时也可以访问跨地域的公网RDS地址。

![image](https://yqfile.alicdn.com/7f680d28c917943cbde8314e7bb12e6e9f034f1f.png)

**独享资源组的配置:**独享资源组的配置主要需要两步操作,首先进入DataWorks控制台的资源列表,点击新增独享资源组,包括独享集成资源组和独享调度资源组。此处选择新增独享集成资源组,点击购买时仍要注意选择对应的购买方式、区域、资源、内存、时间期限、数量等。

![image](https://yqfile.alicdn.com/e99aeed42788d171bebea78e935040804cc72624.png)

购买完成后需要把独享集成资源组绑定到与Kafka对应的VPC,点击专有网络绑定,选择与Kafka对应的交换机(最明显的是可用区的区别)、安全组。

![image](https://yqfile.alicdn.com/e3563539710812bfb21423de28f07d7fe8a08a34.png)

**3.同步过程及其注意事项** 
Kafka同步到MaxCompute的需要进行相关参数配置同时需要注意以下几个事项。 
**DataWorks数据集成操作:**进入DataWorks操作界面,点击创建业务流程,在新建的业务流程添加数据同步节点,再进行命名。

![image](https://yqfile.alicdn.com/a02d58ec365c274f253055fd0b89c68f0b2ef180.png)

如下图所示,进入数据同步节点,包括Reader端和Writer端,点击Reader端数据源为Kafka,Writer端数据源为ODPS。点击转化为脚本模式。下图右上角是帮助文档,Reader或Writer端的一些同步参数可以在此处就近点击,方便阅读、操作和理解。

![image](https://yqfile.alicdn.com/12a1941bf42de6b71f7d8181fd080bac38bb7905.png)

**Kafka Reader的主要参数:**Kafka Reader的主要参数首先server,上文所述Kafka的默认接入点就是其中一个server,ip:port。注意此处server是必填参数。topic,表示在Kafka部署完成之后,Kafka处理数据源的topic,此处也是必填参数。下一个参数是针对列column,column支持常量列、数据列、属性列。常量列和数据列不太重要。同步的完整消息一般存放在属性列 **value** 中,如果需要其它信息,如partition、offset、timestamp,也可以在属性列中筛选。column是必填参数。

![image](https://yqfile.alicdn.com/d9c9a90a999eb56825f4f9a6e1717f236b854dce.png)

keyType、valueType各有6种类型,根据用户同步的数据,选择相应的信息,同步一个类型。需要注意同步方式是按消息时间同步,还是按消费点位置同步的。按数据消费点位置同步有四个场景,beginDateTime,endDateTime,beginOffset,endOffset。 beginDateTime 和beginOffset 二选其一,作为数据消费起点。endDateTime 和endOffset 二选其一。需要注意beginDateTime、endDateTime 中需要Kafka0.10.2版本以上才支持按数据消费点位置同步功能。另外需要注意beginOffset有三个比较特殊的形式:seekToBeginning,表示从开始点位消费数据;seekToLast,表示从上次消费的偏移位置消费数据,按照beginOffset从上次偏移位置只能一次消费,如果使用beginDateTime则可以多次消费,这取决于消息存放时间;seekToEnd,表示从最后点位消费数据,会读取到空数据。

![image](https://yqfile.alicdn.com/2627a180f4a13e789c9a6aa67e4189861200e207.png)

skipExceeedRecord没有太大作用,是不必填项。partition对topic所有分区共同读消费的,所以无需自定义一个分区,是非必填项。kafkaConfig,如果有其它相关配置参数可以扩展配置在kafkaConfig,kafkaConfig也是非必填项。

![image](https://yqfile.alicdn.com/5da2933b780752488b571d7201e698b67ff2c2d9.png)

**MaxCompute Writer的主要参数:**dataSource是数据源名称,添加ODPS数据源。tables,表示所创建的数据表的表名称,Kafka的数据要同步到哪张表中,相应的字段也可以建立。 
partition,如果表为分区表,则必须配置到最后一级分区,确定同步位置。若为非分区表,则不必填。column,尽量与Kafka column中的相关字段做一一对应的操作。同步的字段对应,信息同步才能确认成功。truncate,写入时同步的数据是选择以追加模式写还是以覆盖模式写,尽量避免多个DDL同时操作一个分区,或者在多个并发作业启动前提前创建分区。

![image](https://yqfile.alicdn.com/9fbdf0781d8a30d97f6f62ebef7a9efccf12a797.png)

**Kafka同步数据到MaxCompute:**将下图拆分为三部分。Kafka的Reader端,MaxCompute的Writer端以及限制参数。Reader包含server、endOffset、kafkaConfig、group.id、valueType、ByteArray、column字段、topic、beginOffset、seekToLast等。MaxCompute的Writer端包含覆盖、追加、压缩、查看源码、同步到的表、字段要和Kafka的Reader端做一一对应,最重要的是value数据同步。限制参数,主要有errorlimit,数据超过几个错误后会进行报错;speed,可以限制流速、并发度等。

![image](https://yqfile.alicdn.com/f882eaddd1d5c2af0869c3da757d6671f8a2c681.png)

**参考Kafka生产者SDK编写代码:**最终生产出的数据要发送到Kafka中,通过相关代码可以查看用户的生产数据。下图一段代码表示配置信息的读取,协议、序列化方式以及请求的等待时间,需要发送哪一个topic,发送什么样的消息。发送完成后回传一个信息。详细代码可以参考配置文件、消息来源、生产者消费者的代码模板:  
[https://help.aliyun.com/document\_detail/99957.html?spm=a2c4g.11186623.6.566.45fc54eayX69b0](https://help.aliyun.com/document_detail/99957.html?spm=a2c4g.11186623.6.566.45fc54eayX69b0)。

![image](https://yqfile.alicdn.com/c455b24fa556c54d4649cc390885387dcf32b14e.png)

**代码打包运行在ECS上(与Kafka同一个可用区):**如下图所示,执行crontab-e命令,每到17:00执行一次。下图为发送日志完成后的消息记录。

![image](https://yqfile.alicdn.com/c12db31ecefed6e7ec767371eb27d1c3a87e8f9c.png)

**在MaxCompute上创建表:**进入DataWorks业务流程页面,创建目标表,使用一个DDL语句创建同步的表,或根据用户个人业务相应创建不同的表的字段。

![image](https://yqfile.alicdn.com/ae8e21d9362db2fc0ae0a3cb36076099150a49c7.png)

**4.开发测试以及生产部署** 
**选择自定义资源组(或独享集成资源组)进行同步操作:**下图所示,选择右上角“配置任务资源组”,根据用户个人需求选择资源组,点击执行。执行完成后,会出现标识显示成功,同步数据记录以及结果是否成功。同步过程基本结束。

![image](https://yqfile.alicdn.com/735fbd78c20b8113d538241ac50db412f3548461.png)

**查询同步的数据结果:在DataWorks**临界面查看同步结果,在临时节点点击查询命令,select \* from testkafka3(表),查看数据同步结果。数据已经同步过来,证明测试成功。

![image](https://yqfile.alicdn.com/36bbbb176eb10330be956b9dc83f3ccac83ca7da.png)

**设置调度参数:**业务流程开发数据同步之后,会对相关模型进行一些业务处理,最后设计一些SQL节点、同步节点,进行部署。如下图所示,在右侧点击调度配置,输入调度时间。具体操作可参考DataWorks官方文档完善业务处理流程。

![image](https://yqfile.alicdn.com/5e27c4f6c41c62cae1c4b8cfeed97aa64af125b3.png)

**提交业务流程节点,并打包发布:**点击业务流程,选择所需要提交的节点并提交。一些业务流程提交之后不需要放到生产环境当中。然后进入任务发布界面,将节点添加到待发布进行任务部署。

![image](https://yqfile.alicdn.com/c045a9b16d544ad083d64d54facd05321acb5457.png)

**确认业务流程发布成功:**最后在运维中心页面,确认发布是否在生产环境中存在。至此Kafka同步数据到MaxCompute过程结束。到了对应的调度时间,在各个节点或者右上角会有节点的日志展示,可以查看日志运行情况是否正常,或是否需要进行后续操作,部署数据或是相关命令。

![image](https://yqfile.alicdn.com/07ded53633bf580963159c69d02d1b2063e91a5c.png)

 

 

[原文链接](https://yq.aliyun.com/articles/726361?utm_content=g_1000088003)

本文为云栖社区原创内容,未经允许不得转载。
分享到:
评论

相关推荐

    Flink实时同步Kafka数据到Doris

    Flink实时同步Kafka数据到Doris

    基于Java的kafka数据同步与采集工具设计源码

    该工具为Java编写的Kafka数据同步与采集解决方案,包含41个文件,涵盖16个Java源码文件、5个批处理脚本、5个Shell脚本、4个XML配置文件、2个JSON文件、2个属性文件、1个Git属性文件、1个Git忽略文件、1个许可证文件...

    kafka数据同步工具kafka2x-elasticsearch-master.zip

    《Kafka数据同步至Elasticsearch的深度解析》 在大数据处理领域,Kafka和Elasticsearch都是不可或缺的重要组件。Kafka作为一个强大的分布式流处理平台,主要用于实时数据管道和流处理,而Elasticsearch则是一个功能...

    9、NIFI综合应用场景-通过NIFI配置kafka的数据同步

    总结来说,Nifi与Kafka的集成为ETL(提取、转换、加载)流程提供了强大的支持,能够实现实时数据同步,这对于大数据处理、实时分析和流处理场景至关重要。Nifi的图形化界面和丰富的处理器库使得配置和管理数据流变得...

    代码:kafka数据接入到mysql中

    在大数据处理领域,将Kafka数据接入到MySQL中是一个常见的需求。Kafka作为一个高吞吐量、分布式的实时消息发布订阅系统,常用于日志收集、流式数据处理等场景。而MySQL则作为广泛应用的关系型数据库,用于持久化和...

    clickhouse--kafka引擎接入同步表.docx

    ClickHouse-Kafka引擎接入同步表是指使用ClickHouse和Kafka两种大数据处理技术来实现数据同步的解决方案。这种解决方案可以将Kafka中的数据实时同步到ClickHouse中,实现数据的实时同步和分析。 ClickHouse-Kafka...

    向kafka插入数据测试

    这个场景中,我们关注的是“向Kafka插入数据”的测试。这涉及到多个知识点,包括Kafka的基本概念、生产者API、数据模型、以及如何进行测试。 1. **Kafka基本概念**:Kafka是一个高吞吐量、低延迟的消息队列系统,它...

    java语言kafka数据批量导入到Elasticsearch实例

    消费kafka数据,然后批量导入到Elasticsearch,本例子使用的kafka版本0.10,es版本是6.4,使用bulk方式批量导入到es中,也可以一条一条的导入,不过比较慢。 <groupId>org.elasticsearch <artifactId>elastic...

    Kafka 消息队列(高清版)深入理解Kafka:核心设计与实践原理.zip

    通过阅读《深入理解Kafka:核心设计与实践原理》这本书,读者可以深入了解Kafka的内部工作机制,掌握如何在实际项目中有效地利用Kafka解决消息传递、数据流处理等问题,提升系统的可靠性和性能。

    Flume采集数据到Kafka,然后从kafka取数据存储到HDFS的方法思路和完整步骤

    #### 三、Flume采集数据至Kafka **3.1 配置Flume Agent** 1. **创建Flume配置文件**: - 编写Flume配置文件,例如`a1.sources = r1`用于定义数据源。 2. **配置Flume Source**: - 使用`exec`或`spooling_...

    kafka读取写入数据

    在分布式消息系统领域,Apache...以上就是关于 Kafka 读取写入数据的基本知识,理解并掌握这些概念和原理对于有效利用 Kafka 构建高效的数据处理系统至关重要。在实际应用中,还需要结合具体场景进行细致的配置和优化。

    dmhs搭建dm到kafka同步.md

    dmhs搭建dm到kafka同步.md

    Flink消费Kafka数据1

    Flink消费Kafka数据 Flink 是一种大数据处理引擎,可以消费 Kafka 数据。本文将介绍如何使用 Flink 消费 Kafka 数据,并提供了实验环境的配置和资源购买的详细步骤。 一、实验环境配置 在本实验中,我们将使用...

    深入理解Kafka:核心设计与实践原理_朱忠华著_带目录.rar

    通过阅读《深入理解Kafka:核心设计与实践原理》,读者将能够了解到以上知识点,并进一步掌握如何在实际项目中运用Kafka,实现高效、可靠的数据传输和处理。书中不仅涵盖理论知识,还会有丰富的实践案例和技巧分享,...

    Scala代码积累之spark streaming kafka 数据存入到hive源码实例

    Scala代码积累之spark streaming kafka 数据存入到hive源码实例,Scala代码积累之spark streaming kafka 数据存入到hive源码实例。

    基于Java和Shell的kafka数据消费同步至数据库工具源码设计

    该工具项目采用Java和Shell语言设计,旨在实现从Kafka消费数据并将其同步至数据库的功能。项目源码包含92个文件,其中Java源文件11个,Shell脚本1个,XML配置文件8个,其余为日志、文本、IDE配置、许可证和其他相关...

    StormStorm集成Kafka 从Kafka中读取数据

    本文将深入探讨如何实现Storm与Kafka的集成,重点在于如何从Kafka中读取数据。 **一、整合说明** Apache Storm是一个开源的分布式实时计算系统,它能够持续处理无限的数据流,确保每个事件都得到精确一次(Exactly...

    (高清版)深入理解Kafka:核心设计与实践原理.zip

    - **安全性**:讲解Kafka的认证与授权机制,如何保护数据的安全。 6. **扩展阅读**:可能还包括Kafka Connect、Kafka Streams等高级特性,以及Kafka最新版本的更新和改进。 通过对这本书的深入学习,读者不仅能...

    Kafka数据可靠性深度解读

    随着Kafka的应用越来越广泛,其数据可靠性成为了关键考量因素之一。 Kafka相比传统消息队列系统的主要特点包括: 1. **分布式设计**:Kafka设计为分布式系统,易于向外扩展,能够轻松应对大规模数据处理需求。 2. ...

Global site tag (gtag.js) - Google Analytics