CCO x Hologres:实时数仓高可用架构再次升级,双11大规模落地

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
简介: CCO x Hologres:实时数仓高可用架构再次升级,双11大规模落地

2021年双11总结

2021年阿里巴巴双11期间,由CCO+Hologres构建的高可用实时数仓经过2年的迭代,支撑了阿里集团内部从智能到人工,从应用到数据产品,从B/C到内部运营等数10个核心应用场景,并在双11实时大屏、实时监控大盘等多个应用场景全面启动新一代高可用及灾备方案,在Hologres主集群写入峰值达450万+每秒的情况下,还能真正做到数据“0”延迟,服务“0”延迟。


相比2020年,今年通过优化实时写入链路,在Binlog消费和维表Join流量翻倍的情况下,同等资源下Hologres Binlog读取峰值达1700万+每秒,整体水位平稳保持正常高吞吐。同时今年首次在大促核心场景上线新一代高可用及灾备方案,取消去年使用的双实例+双链路的高成本方式,极大降低人力开发、压测以及运维成本,降低无效双链路任务上百个,减少人力投入50%,节约上千cu计算资源。


下面将会介绍今年是如何在去年基础上进行实时数仓高可用架构升级,并成功大规模落地双11。


去年精彩回顾:Hologres是如何完美支撑双11智能客服实时数仓的?

客户简介

CCO是Chief Customer Officer的缩写,也是阿里巴巴集团客户体验事业部的简称。在阿里巴巴经济体内,CCO是“客户第一”价值观落地的组织保障,是整个经济体客户体验的神经网络,也是触达消费者和商家的最前线。“成为新商业的服务生态摇篮”,“让体验成为商业的核心竞争力”是我们的愿景。凭借着为消费者、商家和经济体提供专业服务的小二,为平台不断挖掘存量客户价值的体验运营专家,为业务发展提供底层支撑的数据、产品和技术人才,我们成为了互联网行业独一无二的数字化服务体验团队 —— 一支有爱有担当,富有创造力的“阿里柔军”。

业务挑战

CCO通过与Hologres高度共建,构建了集实时化、自助化、系统化于一体的用户体验实时数仓,完美助力2020年双11场景,支持上千+服务大屏,削峰30%,节约成本近30%。

但是在2021年,任务规模也相比2020年增长1.5倍,实时数据膨胀2倍以上,如何有效管理数据和资源成为了越来越关键的问题,同时2021年大促期间将会面临更加高并发高吞吐的流量,如何保障实时数仓的高可用,以及保持稳定性和成本的平衡,是今年构建实时数仓的核心挑战。

2020年双11,为了应对大促的流量洪峰,在高可用方面,我们花费1个月,投入巨大人力成本,来构建双链路+双实例的高可用方案,以下为去年双11的实时数仓架构。这个架构虽然支撑了去年双11等各种大促流量洪峰,但是在今年更为复杂的环境和外部更多挑战的情况下,也存在着一定的痛点,主要有以下几个:

  • 浪费资源:数据同时写入多个实例,满足主备要求,既浪费了计算资源,也浪费了存储资源,同时也额外增加了业务的开发成本和运维成本。
  • 无法高效保证主备链路数据一致性:在数据双写时,当某个实例因为因为种种原因出现延迟时,无法与另外一个实例保持完整的数据一致性,无法做到真正的高可靠。
  • 运维复杂:双链路意味着需要采用两套架构,虽然搭建逻辑以及开发逻辑都一致,但是当对主链路进行运维发布(如升降配,bug fixed等)或者逻辑修改时,牵一发而动全身,还需要同时维护备链路,操作比较复杂,运维链路长。

image.png

为了解决2020年遗留的问题,2021年双11对实时数仓进行升级,采用新一代高可用及灾备方案,在对单链路进行充分的压测评估以及长应急预案外,实例内使用多副本+共享存储的方式,除了在出现未知问题时可以快速切换副本来提高业务的可用性外,还极大的降低了构建双链路的成本。同时在面对大促和日常流量时,可以快速缩容,提高架构的整体灵活性,在成本和效率上相比去年更加的平衡,实现生成高可用,成功大规模落地双11。

下面将会具体介绍今年的高可用及灾备方案。


业务方案

整体数据链路同2020年保持一致:数据源数据通过Flink ETL处理后实时写入Hologres,行存表用于在线服务场景,列存表用于复杂多维分析场景,再由Hologres通过通过不同的场景直接对接上层应用。


在去年方案的基础上,对架构进行升级,对Hologres服务和分析场景进行集群隔离以及高可用部署,组成当下实时数仓3.0架构。


image.png

注:部分不核心业务由于历史原因暂时无法下线,所以由Hologres同步至某DB引擎提供服务。


升级1:多种隔离方式满足生产高可用

在高可用部分,今年的方案升级主要如下:


1)服务和分析集群隔离

采用行存和列存两个实例集群,有效隔离行存服务和列存分析场景下对于QPS/RT不同要求的能力。

  • 行存集群承载核心实时数据,主要承担与Flink高频的交互(数据写入、Binlog消费、维表关联),同时提供比如数据特征、用户画像等在线点查服务,实现在线推荐。
  • 列存集群主要用于复杂多维分析,由Flink实时写入,应用于实时数据大屏、实时监控等一系列核心场景


2)分析场景读写分离高可用和灾备

对于大促期间高保的列存分析核心场景,启用多实例共享存储读写分离高可用和非共享存储灾备的能力建设。

  • 读写分离高可用:多个实例共享存储,主实例具备完整能力,数据可读可写,权限、系统参数可配置,而子实例处于只读状态,所有的变更都通过主实例完成,实例之间共享一份数据存储,实例间数据异步实时同步。这个方案实现了完整的读写分离功能,保障不同业务场景的SLA,在高吞吐的数据写入和复杂的架构作业、OLAP、AdHoc查询、线上服务等场景中,负载之间物理上完全隔离,不会因写入产生查询的抖动。同时当某个子实例出现问题时,可以在其余子实例间紧急切换,也不会带来数据一致性的问题。
  • 灾备:在多机房部署多个实例,实例间不共享存储,数据通过实例间进行实时同步,数据冗余在多个文件系统,在集群出现问题时,可做紧急切换。


日增量数据在数十TB的规模下,无论是共享存储的读写分离高可用还是非共享存储的灾备模式,同机房/跨机房实时数据同步延迟都低于10ms,完全满足我们对于大促高保场景的数据时效性要求。


升级2:实时链路优化提高吞吐

对于核心场景,在大促流量洪峰下查询需要保持高性能,写入也同样需要保持高吞吐,才能不影响业务的下一步决策,例如每年双11交易峰值,对写入和Binlog消费的压力都比较大,因此实时链路的优化与保障需要格外处理。今年针对大流量场景的任务调优,在实时链路上我们针对并发、攒批、connector等都做了相应的优化,保证了高吞吐写入,降级写入延迟,满足不同业务系统的需求。

  • 优化写入connector的带宽策略,避开VIP带宽由5GB/s到20GB/s的限制。
  • 大流量的行存表扩容shard数,比如交易表,提高写入并发能力。
  • 大流量的任务选择合适的并发,比如交易表我们采用的参数是Binglog并发:512、sink并发:512、batch size:512、buffer size:20000、ingore delete:true。
  • 合适的攒批能力:选择更加合适的connector的攒批以及server端的攒批,交易场景的输入流量和输出流量的峰值差距能够达到30%,一定程度上具备削峰填谷的效果。


为什么要采用这样的方案,有比较强的场景原因也有比较客观原因造成的方案折中:

  • 由于历史原因,不同的应用系统可能会依赖不同的数据服务引擎,比如某些KV引擎暂时未改造下线,为了保证数据一致性,我们通过消费Hologres Binlog,将某些实时数据向其它KV引擎做实时同步,既保证了数据一致性,也可以满足不同应用系统的需求。
  • 对于交易流量,大促峰值往往高于日常非常多,为了保证峰值吞吐性能,所有引擎按照峰值扩容,会有极大的资源浪费,通过数仓中转的流量需要具备一定的“消峰填谷”的能力,来保证目标引擎不必过度扩容。


总结

由CCO+Hologres构建的高可用实时数仓经过2年的迭代,由最初的传统数仓逐渐升级到2021年的高可用实时数仓:2020年年双11大促首次采用以Hologres为核心实时数仓方案,统一了实时核心数据与部分离线数据的存储。再到2021年通过对实时数仓进行高可用架构升级,由链路双写顺利升级为读写分离高可用以及灾备架构,并在双11以及双12等核心场景规模应用。实时任务规模由去年的几百+增加至上千+,写入压力增加至1700万+每秒,数据规模高达几百TB,直接服务数十个在线服务场景,数百个核心分析业务,有效降低了构建实时数仓主备链路的人力以及机器成本,减轻了核心业务对于读取稳定的压力,完美经受住各大促核心场景的检验,实现生产高可用。

未来,CCO也将会继续与Hologres合作,持续完善数仓升级,赋能更丰富的业务场景。


了解Hologers:https://www.aliyun.com/product/bigdata/hologram

合集.png

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
相关文章
|
12天前
|
存储 SQL 关系型数据库
Mysql高可用架构方案
本文阐述了Mysql高可用架构方案,介绍了 主从模式,MHA模式,MMM模式,MGR模式 方案的实现方式,没有哪个方案是完美的,开发人员在选择何种方案应用到项目中也没有标准答案,合适的才是最好的。
69 3
Mysql高可用架构方案
|
2月前
|
存储 SQL 缓存
快手:从 Clickhouse 到 Apache Doris,实现湖仓分离向湖仓一体架构升级
快手 OLAP 系统为内外多个场景提供数据服务,每天承载近 10 亿的查询请求。原有湖仓分离架构,由离线数据湖和实时数仓组成,面临存储冗余、资源抢占、治理复杂、查询调优难等问题。通过引入 Apache Doris 湖仓一体能力,替换了 Clickhouse ,升级为湖仓一体架构,并结合 Doris 的物化视图改写能力和自动物化服务,实现高性能的数据查询以及灵活的数据治理。
快手:从 Clickhouse 到 Apache Doris,实现湖仓分离向湖仓一体架构升级
|
17天前
|
Kubernetes 关系型数据库 MySQL
Kubernetes入门:搭建高可用微服务架构
【10月更文挑战第25天】在快速发展的云计算时代,微服务架构因其灵活性和可扩展性备受青睐。本文通过一个案例分析,展示了如何使用Kubernetes将传统Java Web应用迁移到Kubernetes平台并改造成微服务架构。通过定义Kubernetes服务、创建MySQL的Deployment/RC、改造Web应用以及部署Web应用,最终实现了高可用的微服务架构。Kubernetes不仅提供了服务发现和负载均衡的能力,还通过各种资源管理工具,提升了系统的可扩展性和容错性。
51 3
|
17天前
|
存储 SQL 缓存
AnalyticDB 实时数仓架构解析
AnalyticDB 是阿里云自研的 OLAP 数据库,广泛应用于行为分析、数据报表、金融风控等应用场景,可支持 100 trillion 行记录、10PB 量级的数据规模,亚秒级完成交互式分析查询。本文是对 《 AnalyticDB: Real-time OLAP Database System at Alibaba Cloud 》的学习总结。
36 1
|
1月前
|
分布式计算 大数据 Serverless
云栖实录 | 开源大数据全面升级:Native 核心引擎、Serverless 化、湖仓架构引领云上大数据发展
在2024云栖大会开源大数据专场上,阿里云宣布推出实时计算Flink产品的新一代向量化流计算引擎Flash,该引擎100%兼容Apache Flink标准,性能提升5-10倍,助力企业降本增效。此外,EMR Serverless Spark产品启动商业化,提供全托管Serverless服务,性能提升300%,并支持弹性伸缩与按量付费。七猫免费小说也分享了其在云上数据仓库治理的成功实践。其次 Flink Forward Asia 2024 将于11月在上海举行,欢迎报名参加。
178 1
云栖实录 | 开源大数据全面升级:Native 核心引擎、Serverless 化、湖仓架构引领云上大数据发展
|
30天前
|
存储 消息中间件 人工智能
ApsaraMQ Serverless 能力再升级,事件驱动架构赋能 AI 应用
本文整理自2024年云栖大会阿里云智能集团高级技术专家金吉祥的演讲《ApsaraMQ Serverless 能力再升级,事件驱动架构赋能 AI 应用》。
|
1月前
|
存储 消息中间件 运维
架构升级的救星!流量回放自动化测试的必备指南
大家好,我是小米,一名29岁的技术宅。今天分享一个物联网领域的实用技能——流量回放自动化测试。系统重构后,测试工作量巨大,本文介绍如何通过日志收集和数据回放进行自动化测试,包括离线、实时和并行回放模式,帮助快速定位Bug,提升测试效率和系统稳定性。欢迎关注我的微信公众号“软件求生”,获取更多技术干货!
42 3
|
1月前
|
存储 SQL 缓存
Apache Doris 3.0 里程碑版本|存算分离架构升级、湖仓一体再进化
从 3.0 系列版本开始,Apache Doris 开始支持存算分离模式,用户可以在集群部署时选择采用存算一体模式或存算分离模式。基于云原生存算分离的架构,用户可以通过多计算集群实现查询负载间的物理隔离以及读写负载隔离,并借助对象存储或 HDFS 等低成本的共享存储系统来大幅降低存储成本。
Apache Doris 3.0 里程碑版本|存算分离架构升级、湖仓一体再进化
|
1月前
|
OLAP
解决方案|基于hologres搭建轻量OLAP分析平台获奖名单公布!
解决方案|基于hologres搭建轻量OLAP分析平台获奖名单公布!
|
1月前
|
DataWorks 数据挖掘 关系型数据库
基于hologres搭建轻量OLAP分析平台解决方案评测
一文带你详细了解基于hologres搭建轻量OLAP分析平台解决方案的优与劣
184 8

热门文章

最新文章

相关产品

  • 实时数仓 Hologres