`
wbj0110
  • 浏览: 1603429 次
  • 性别: Icon_minigender_1
  • 来自: 上海
文章分类
社区版块
存档分类
最新评论

双十一背后的技术改进(转自阿里)

阅读更多

今年是双十一购物狂欢节的第五个年头,每一年这个时刻对于技 术团队而言都是一次真刀实枪的数字战争。一方面,我们会提前在产品和业务层面努力创新,力争在当天为消费者留下更优质的购物体验。另一方面,全国人民的热 情也是技术架构和细节不断优化的动力。下面我就简单介绍下,今年双十一的准备过程中技术上的一些突破和亮点。

全链路压测

压 力测试对于评估网站性能的重要性是不言而喻的,但是,无论是线下模拟的单一集群的压测,还是线上引流压测,都只是能够暴露一些基本的单点问题。对于双十一 当天高峰期的真实压力模拟,这两种传统的压力测试方式还存在着巨大偏差。首先是业务处理链路的复杂性,对于像天猫这样的一个分布式处理平台,一笔交易的创 建会涉及多个应用集群的处理,在能力评估时也应该考虑的是一个处理链路而不仅仅是单一应用集群的处理能力。其次是应用之外的风险点,像网络、DB等等,很 难在传统压测中体现出来。

为了解决这些问题,今年阿里几个技术团队联合在一 起,通过线上真实用户数据与人为测试数据相结合的方式,首次成功地在生产环境中模拟出相对真实的超大规模的访问流量,将前端系统、网络、DB等一整个系统 环境完整地纳入压测范围,贴近实际的应用场景,为评估淘宝和天猫交易核心链路的实际承载能力提供有说服力的数据依据。一方面可以验证交易核心链路上各种限 流和预案的准确性,另一方面也充分暴露了全链路上的各种瓶颈和隐藏风险点,让压力测试的工作真正落实到了确定性的层面上。

CDN静态化

很多浏览型业务,例如天猫详情页、店铺等,是典型的静态数据偏多,动态数据偏少的应用。对于这种类型的应用集群,去年我们在架构上的主要工作就是通过静态化实现了动静分离,静态数据缓存在本地缓存,动态数据异步进行加载。改造前后单机QPS提升了10倍。

今年上半年我们在这个基础上,将本地cache改造成了统一的集中式缓存,这样,一方面降低了各个应用接入和维护cache的成本,另一方面加强了失效机制实时性和监控的自动化,更重要的是大大提升了缓存的命中率。

除 此之外,为了进一步解决主站容量瓶颈,在统一cache层之上,我们把静态HTML内容直接缓存在CDN上。这样,静态数据的访问完全不用回流到主站机 房,在离用户最近的CDN节点就能完成,用户端的响应速度自然得到了大大的提升。当然这个实现的过程远没有说起来这么简单,中间很多技术的难点,例如商品 信息变更如何实现秒级的主动失效,如何保证节点到主站之间的网络稳定等等,这里先卖个关子,大家可以期待下双十一之后阿里技术团队的详细分享。

个性化算法

个性化技术已经逐渐被证明可以有效提高电商网站的流量分配效率,让消费者更容易找到自己想要的商品和品牌,让长尾商品和商家有机会获得精准的流量。

今年双11是天猫第一次在大促中脚踏实地的实行个性化,从PC 到无线,从“会场”到“我的双11”,都可以看到个性化在无形中提升天猫的消费者购物体验,让有潜在需求的买家更容易找到心仪的宝贝。

对 个性化引擎而言,由于要进行复杂的算法运算:用户实时意图计算、相关商品检索、CTR 预估、“推荐解释”等等,活动当天系统承担的技术挑战更大,为了解决系统方面的压力,我们一方面优化了算法,将更多的算法移植到离线平台计算,另一方面, 通过CDN,将大部分Item Based 算法结果做了静态化处理,目前cache 比例可以达到90%左右,整个天猫个性化引擎的集群已经可以在当天负载近百万QPS的推荐服务。

同时,双11用户行为与平常差异性较大,使得基于机器学习的用户行为偏好,需要针对双11增加品牌折扣度等特有的特征修正训练目标,避免产生偏差(bias)。

另外,一般来说,算法调优都通过线上测试来进行效果评估,通常需要数天到数周的时间,但是双11只有一天的机会,为了充分保证算法的线上效果,我们设计了离线评估系统,离线模拟线上效果,减少了对线上真实流量的依赖,降低了线上风险。

从这几天预热期的效果来看,对比运营人员制作的活动页面,个性化技术已经将加入收藏夹和购物车的转化率提升30%以上。

讲了这么多,不知道大家是否对双十一当天更加期待了呢?

2012年的双十一,淘宝总交易金额191亿,订单1亿零580万笔,其中无线支付近900万笔,生成15TB日志,核心MySQL集群一天支持了20亿个事务。今年,让我们拭目以待,新的技术记录的诞生!

分享到:
评论

相关推荐

    阿里双十一技术

    2017年11月11日晚上10点,阿里巴巴集团CTO张建锋(花名:行癫)连线上海双11媒体中心,为700多位中外媒体记者介绍了阿里技术在双11中取得的突破与成绩,表示“阿里双11是名副其实的世界互联网技术超级工程

    阿里巴巴双十一技术

    阿里巴巴九年双十一技术,超级工程,

    阿里巴巴九年双十一技术文档

    阿里巴巴九年双十一技术文档,解密了阿里这九年来的双十一技术历程

    阿里双11背后的技术_不一样的技术创新

    双 11 是阿里技术团队的大练兵,双 11 后每个技术团队都会进行总结复盘,我们从中汇总了八个技术领域的经验总结,形成本书,希望能让各位读者全面地了解双 11背后阿里技术;同时,双 11 也是未来新零售时代的技术...

    阿里双十一技术全架构

    无数阿里人技术的结晶-阿里双十一技术支持 值得你拥有,值得你赞美!

    阿里九年双十一:互联网技术超级工程

    阿里九年双十一:互联网技术超级工程,里边详细介绍了阿里在双十一中使用的技术内幕

    阿里双11技术

    阿里双11技术是阿里巴巴集团每年双十一购物狂欢节背后的核心技术支撑体系,它涉及了分布式计算、大数据处理、云计算、数据库优化、智能算法等多个领域的先进技术。在这个庞大的技术系统中,阿里巴巴不仅展示了其强大...

    阿里双十一大数据计算平台PDF

    阿里双十一大数据计算平台是阿里巴巴集团在每年双十一购物狂欢节期间,为处理海量交易数据而构建的一个强大、高效、可靠的计算平台。这个平台的核心目标是实时处理、分析和预测业务数据,确保购物节期间的系统稳定...

    阿里双十一 互联网技术超级工程

    每年电商双11大促对阿里技术人都是一次大考,对阿里数据库团队更是如此。经过9年的发展,双11单日交易额从2009年的0.5亿一路攀升到2017年的1682亿,秒级交易创建峰值达到了32.5万笔/秒。支撑这一切业务指标的背后,...

    9年双十一 阿里双 11 是世界互联网技术的超级工程

    阿里双 11 是世界互联网技术的超级工程 2017 年 11 月 11 日晚上 10 点,阿里巴巴集团 CTO 张建锋(花名: 行癫)连线上海双 11 媒体中心,为 700 多位中外媒体记者介绍了阿里技 术在双 11 中取得的突破与成绩,表示...

    双十一背后的英雄: 大数据计算平台.pdf

    双11对阿里云大数据平台的技术挑战主要体现在两方面。实时数据处理技术方面,包括日志数据和交易数据的实时采集、分发、计算,最终在媒体直播大屏上实时渲染和展示,整个链路的稳定性保障压力是巨大的。今年双11,...

    阿里巴巴2016双11背后的技术

    然有序地送到消费者手中,这背后是阿里领先的交易、支付、物流系统,以及强大的计 算平台、海量数据和智能算法的共同支撑。在双 11 零点开始的半个小时里,超过 6 千 万的用户使用手机来同时参与了这次活动,在零点...

    阿里技术分享-九年双11互联网技术演进

    阿里技术分享-九年双11互联网技术超级工程,细数阿里巴巴双十一的架构技术的演进。

    第三届阿里巴巴中间件性能挑战赛复赛程序-模拟阿里双十一分布式数据同步.zip

    第三届阿里巴巴中间件性能挑战赛复赛程序——模拟阿里双十一分布式数据同步 第三届阿里巴巴中间件性能挑战赛复赛程序——模拟阿里双十一分布式数据同步 第三届阿里巴巴中间件性能挑战赛复赛程序——模拟阿里双十一...

    阿里双十一技术文档大全

    来自阿里双十一的超级世纪工程,属于技术界的工程,让你一睹为快!

    2017阿里技术年度精选、阿里JAVA开发手册、尽在双11:阿里巴巴技术演技与超越

    “尽在双11:阿里巴巴技术演技与超越”这本书籍,聚焦于阿里巴巴每年一度的双十一购物节背后的技术挑战和解决方案。双十一作为全球最大的在线购物活动,其背后的技术支持需要应对海量并发、数据处理、系统稳定性等...

Global site tag (gtag.js) - Google Analytics