TA(Tencent Analytics,腾讯分析)是一款面向第三方站长的免费网站分析系统,在数据稳定性、及时性方面广受站长好评,其秒级的实时数据更新频率也获得业界的认可。本文将从实时数据处理、数据存储等多个方面带你深入探寻TA的系统架构及实现原理。
网站分析(Web Analytics)主要指的是基于网站的用户浏览行为,对网站的点击流数据和运营数据进行分析,以监控网站的运营状况,为网站的优化提供决策依据。网站分析系统已成为站长日常运营必不可少的工具,业界比较流行的网站分析系统主要有Google Analytics、CNZZ和百度统计等产品。
TA作为网站分析产品的后起之秀在社区分析、用户画像、网站工具等多方面形成了自己的特色,其秒级的实时数据更新频率更是业界翘楚。在数据稳定性、准确性和及时性方面,TA在站长圈也是享有良好的口碑。随着接入业务量的不断发展,TA日均需要处理和计算的数据量达到TB级。如此庞大的数据量想要达到秒级实时且保证系统的高可用并非件易事。
TA的实时计算框架借鉴了一些业界流行的流式计算系统的思路。虽然在构建系统中遇到了一些问题,但由于海量数据的实时处理、实时存储具备一定的典型性与通用性,所以将TA的解决方案分享出来,希望能给大家一些启示。
基本原理及系统架构
TA的基本原理是通过嵌入站长网站的JavaScript脚本收集用户访问行为数据,并发送TA采集集群,采集集群收到数据后将其过滤、编码、格式化后继续向后分发。数据处理集群负责按照业务逻辑计算数据,并将计算结果“写入”到数据存储集群,最后将结果数据展现给广大站长使用。TA的基本原理如图所示。
TA后台是一套完整的数据流处理系统:由JavaScript采集的用户行为数据像川流不息的河水一样流入TA后台,经过清洗、计算后源源不断地流出到TA存储集群,供用户浏览和查询。TA的具体架构及核心部件如图所示。
TA的后台分为离线和实时两部分:实时部分负责系统的主要功能计算,数据更新频率为秒级;离线部分负责系统复杂的关联分析及跨天计算,数据更新频率为天级。
- Http Access:主要负责HTTP协议的解析,数据的清洗及格式化。
- ESC:Event Streaming Coder,主要负责将系统不可枚举的数据类型编码成为整型,并将对应关系持久化。
- ESP:Event Streaming Processor,主要负责将数据按照站点、UID重新组织并计算PV、UV、停留时长和蹦失率等网站分析指标。
- ESA:Event Streaming Aggregator,主要负责汇总ESP计算后的数据按照站点,并写入到Redis。
- Center:系统的中心节点,负责系统配置、数据路由管理,并承担容灾切换功能。
- Logserver:负责将Access收集到的数据以字符串形式写入文件,并上传到TDCP上。
- TDCP:腾讯分布式计算平台,负责离线数据的计算,并由脚本将结果数据写入MySQL中。
实时解决方案
在介绍TA实时解决方案前,我们先来了解下TA支撑的业务量。当前TA日均需要处理几十万网站的上TB级数据,处理过后的URL个数仍有上亿条,系统存储的key个数超过十亿。如何高效、低延迟地处理如此大量的业务数据是TA实时系统面临的主要挑战。TA解决方案的主要思路可以概括为数据全二进制化、计算全内存化、存储NoSQL化。下面就实时计算和实时存储这两大子系统进行深入的讨论。
实时计算
对于计算子系统,我们参考了Hadoop、S4和Storm等开源项目,力图设计为一个较为通用,扩展性较强的全内存实时Event处理系统(或者套用流行的术语称为流式实时Event处理系统)。对于这样的一个系统,我们设计支持的典型输入输出流程大致如图所示。
实时计算系统的设计要点在数据组织、协议和增量计算模型上。
数据组织。万物皆int,考虑到内存以及计算过程的性能需求,我们将所有非int的数据类型转化为int。可以枚举的数据类型,将其配置化映射为唯一int;不可枚举的数据类型,则利用MD5算法近似得到唯一的int。例如,页面URL属于不可枚举的类型,则预处理通过MD5算法近似得到唯一的int;UserAgent里的浏览器类型字符串则属于可枚举的数据,则预先配置化映射为int。这个方法节省了较多内存,提高了整个系统的计算性能。
协议。协议层面上,我们首先设计实现了一种可扩展的Event结构,这种Event结构支持半自动化的序列化/反序列化机制(参考自msgpack的设计)和紧凑的二进制编码(基于Zigzag编码,参考Protobuf的实现)。这种Event结构在流式高性能I/O(网络传输和持久化)方面表现得相当良好。实时计算子系统被设计为可以扩展支持任意的Event实现。
增量计算模型。增量计算模型,指的是基本计算过程,被定义为以下三部分(如图所示)
- Processor:负责具体业务逻辑的计算处理。
- Data Holder:负责保存增量结果数据,以及计算依赖的中间状态数据。
- Emitter:负责定期输出清空增量计算结果。
具体到流程方面,分为以下三步(如图所示)。
- 接收Event,计算处理—Processor。
- 保存计算结果以及计算依赖中间数据—DataHolder。
- 定时触发输出时间片内计算结果,清空计算结果—Emitter。
增量计算模型弱化了分布式系统中单台机器的事务状态,相应地简化了分布式计算系统的实现,同时也提高了整个系统的性能。
实时存储
在TA系统中,实时存储的数据都是需要通过Web展示层读取的统计数据。这类数据存在两个典型特点。
- 频繁更新写。更新频度视系统实时性而定,每条统计结果更新频度最快可以达到1秒。
- 少量读取。“少量”是相对上述更新而言的。同时根据业务逻辑,可将统计数据划分为两类。
- 固定不变数据:主要是URL、搜索关键词等数据。这一部分数据理论上是在不停地增加,不会修改旧有数据。
- 动态数据:主要是频繁更新的结果统计数据。这一部分数据则需要不停地更新。例如,www.qq.com域名下的PV和UV统计结果。
考虑到上述的TA实时统计数据的特点,我们选择NoSQL实现我们的存储系统;同时,针对两类不同的数据类型,分别选用LevelDB和Redis来存储。
Redis
TA实时存储的主要构件。考虑到TA系统本身就是一个比较完善的分布式集群系统,因此我们需要的存储构件是“not clustering, but sharding”。也就是说像HBase和MongoDB这样的“重武器”并不适合TA,而NoSQL数据库中的“瑞士军刀”Redis凭借其出色的性能走入我们的视野。同
时TA的结果数据类型也比较丰富,有像站点PV、UV、VV和IP等Hash类型的数据,也有像用户访问轨迹这样set类型的“动态数据”,而Redis丰富的数据结构很好地完成了这项任务。
选择Redis的另一个原因是它足够简单且易于扩展。在实际应用的过程中,我们发现的问题都可以通过扩展Redis命令来解决。
例如,TA中有这样的一种应用场景:为了消除ESA模块的状态,存储在Redis中的数据往往并不是最终的结果数据,而是还需要进一步运算的中间数据。像bounce rate这个指标(bouncerate=bounce session数/total session数),需要前台查询两次再做一次运算后最终展示给用户。在高并发的情况下,无疑会影响系统的响应速度。
本着“移动计算,而不是移动数据”的原则,我们对Redis的sort、hmget命令进行了扩展使其支持四则运算,成功地将原来的两次查询优化为一次。扩展四则运算的另外一个目的是可以“通过计算换取存储”,例如需要将两种类型加总成总和的类型数据,可以只存储两份,加总数据“通过计算换取”。
除了数据读取,数据的写入也可以进行类似合并数据的优化。例如,TA在写入URL的PV、UV、VV、IP、停留时长和bounce rate这6个指标时,需要调用6次Redis命令。而实际上这6个指标是存储在同一个Hash内的,通过扩展hmincrby命令,支持将Hash的所有field一次更改,便能将调用次数优化至一次。上线之后也取得了良好的效果,峰值时的CPU利用率几乎下降了一半,同时也大幅提升了上层模块ESA的吞吐量。
LevelDB
它是Redis的有效补充。考虑到Redis为内存数据库,而使用内存的成本要高于硬盘,因此选择引入了基于磁盘存储的LevelDB作为补充。由于LevelDB的写性能足够好,而读性能也远远超过目前“在线少量读取”的需求,所以我们选择LevelDB存储“固定不变数据”。
在数据存储的架构设计上,由于实时数据服务与在线系统,可靠性要求较高,因此我们主要采取双写复制+Sharding的设计方法。
双写复制。所有的数据存储都会至少同步写两份,以提高在线系统服务的可用性。
数据分片(Sharding)。
基于域名:所有的数据以域名为单位组织分片;任何域名可以调整到任意分片中;单个域名数据原则上存储在一个分片中。
动态调整(如图所示):只调整分片策略,不移动数据;基于数据量计算分片负载。
此外,针对分片集群数据的查询,我们主要做了三项工作(如图所示)。
- Redis Protocol Stack是一个较为完整的Redis协议栈,是上层应用的基础。直接用Redis协议作为对外提供查询的通用协议,这样外部用户可直接通过目前各种Redis Client实现来查询访问数据。Query Rule Engine是一个灵活的查询引擎。能够根据规则智能地在多个Redis、LevelDB数据源中查询,执行类join的操作;也简单扩展支持其他的异构数据源,如MySQL、HBase等。
- Query Compute Engine是一个实时查询计算引擎,能根据基础查询结果实时计算。引入此部分的主要目的在于减少Redis数据空间占用。
未来展望
目前TA虽然在后台上已经做到数据秒级更新,但展示方式仍为传统的静态方式。后续TA会在数据的动态刷新上进行更多尝试,让站长可以第一时间了解网站营销效果,时刻感受网站心跳。
作者介绍
- 楚大鹏 腾讯数据平台部高级工程师,腾讯分析技术负责人,在网站分析、流式数据处理、海量数据挖掘等领域方面经验丰富。
- 王琦英 腾讯数据平台部高级工程师,负责腾讯分析的架构设计及开发,有丰富的高并发、高性能后台系统设计、架构经验。
转自:http://www.biaodianfu.com/tencent-analytics-architecture.html
相关推荐
### 腾讯微博架构深度解析 #### 一、架构演进与业务特点 腾讯微博作为中国社交媒体领域的领军者之一,其架构设计经历了从初生到成熟的关键阶段,旨在满足多终端、SNS(社交网络服务)、高速发展、轻量化及高质量的...
### 腾讯内部云架构设计介绍 #### 一、背景与目的 腾讯作为国内领先的互联网企业,在其发展过程中遇到了一系列挑战,包括速度慢、稳定性差、部署混乱、监控不完善以及开发效率低下等问题。为了应对这些挑战并...
### 彭渊-如何突破腾讯大数据分析架构瓶颈 #### 大数据分析架构概述与挑战 在当前的大数据时代,企业面临着海量数据处理与分析的需求。腾讯作为中国领先的互联网科技公司之一,在大数据处理方面积累了丰富的经验和...
《新浪内部对腾讯公司的深度解析》是一份深入剖析腾讯企业全貌的报告,这份文档以PPT的形式,详细探讨了腾讯公司的核心业务、组织架构、市场竞争地位以及未来的发展策略。通过对这些关键领域的深入剖析,我们可以...
本文旨在深入解析腾讯游戏平台架构的发展历程,从最初的尝试到后来的大规模发展,以及在此过程中所积累的技术经验和教训。 #### 二、从0到1:《QQ幻想》的诞生 2003年是腾讯游戏发展史上的一个重要节点。这一年,...
腾讯云微服务中间件 TSF 框架解析,TSF 分布式框架,历经腾讯内部最严苛、最复杂的生产级环境打磨,基于上述方法论,对其中核心性能的提炼,形成了一套具备无限扩展、高性能、高可靠的一站式微服务架构解决方案,...
2. 项目架构:项目架构主要关注如何将业务需求转化为具体的技术实现,包括系统的需求分析、模块划分、功能分配等。在实际操作中,项目架构师需要考虑不同团队间的协作、开发流程的标准化以及项目的迭代管理。可能...
《腾讯旗下论坛系统——深入解析Discuz!》 在互联网社交领域,论坛系统一直扮演着不可或缺的角色,而其中的佼佼者非腾讯旗下的Discuz!莫属。Discuz!是一款功能强大、用户友好的社区论坛软件,深受广大站长和用户的...
这些文档涵盖了中国互联网巨头——新浪、百度、腾讯和淘宝的核心技术架构,对于理解大型互联网公司的系统设计、数据库架构、性能优化以及用户增长策略具有极高的参考价值。以下将逐一解析这些资料所涵盖的关键知识点...
标题《腾讯云CDB内核架构功能解密》描述了对腾讯云CDB内核架构深入的解析和功能讲解。本文将详细阐述该文档中提到的知识点。 ### TXSQL–腾讯自研数据库内核 TXSQL是腾讯云CDB(Cloud DataBase)团队自主研发的...
在安全分析方面,通过分析系统架构中可能存在的安全风险和漏洞,可以提前采取措施,进行风险预防。例如,“洋葱”系统通过实时关联分析,及时发现并响应潜在的安全威胁。 数据安全是信息安全的核心,它包括数据的...
- **目标与优势**:Hermes旨在为公司内部的大数据分析业务提供一套实时的、多维的、交互式的查询、统计和分析系统,使万级维度、千亿级数据下的秒级统计分析成为可能。相较于传统的关系型数据库集群或内存计算平台,...
- **调试(Debug Executor)**:用于开发调试,记录所有消息,辅助分析系统运行状态。 - **TransLog**:存储Executor的执行结果,用于查询任务进度。 - **运维子系统(蓝色部分)**:提供具体服务的模块,底层...
### 案例解析:腾讯社交业务高可用架构的关键运维技术 #### 一、腾讯高可用架构的演进 在移动互联网迅速发展的背景下,腾讯作为国内领先的互联网企业,其社交业务面临着巨大的挑战与机遇。为了应对不断增长的用户...