Paimon x StarRocks 助力喜马拉雅直播实时湖仓构建

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 本文由喜马拉雅直播业务与仓库建设负责人王琛撰写,介绍了喜马拉雅直播业务的数据仓库架构迭代升级。文章重点分享了基于 Flink + Paimon + StarRocks 实现实时湖仓的架构及其成效,通过分钟级别的收入监控、实时榜单生成、流量监测和盈亏预警,大幅提升了运营效率与决策质量,并为未来的业务扩展和 AI 项目打下坚实基础。

作者:王琛 喜马拉雅直播业务与仓库的建设负责人/数仓专家。

本文将介绍喜马拉雅直播的业务现状及数据仓库架构的迭代升级,重点分享基于 Flink + Paimon + StarRocks 实现实时湖仓的架构及其成效。我们通过分钟级别的收入监控、实时榜单生成、流量监测和盈亏预警,大幅提升了运营效率与决策质量,并为未来的业务扩展和 AI 项目打下坚实基础。

一、喜马拉雅直播业务介绍与实时湖仓背景

1. 喜马拉雅业务概述

首先,简要介绍一下喜马拉雅的业务。我们的直播业务主要分为音频直播、视频直播以及多人娱乐厅三大类。

音频直播:由专业主播为用户提供有声书、知识讲座等内容。

视频直播:与市面上多数视频直播类似,包括主播表演和游戏直播等内容。

多人娱乐厅:为用户提供一个互动交流的平台,他们可以与主持人共同参与讨论或活动。

2. 直播数仓的建设

喜马拉雅的直播数仓建设与多数公司类似,分为 ODS 贴源层、DWD、DWS 公共层,以及 ADM 应用层。数据主要来源于中台的订单数据、业务数据和流量日志数据,核心围绕流量、互动和交易展开。下游数据则支持画像看板、主播后台、AB 平台以及自助取数等应用,提供数据支持。当前数据处理仍以离线模式为主。然而,面对信息量的爆炸式增长,单靠离线处理难以满足业务需求,因此公司迫切希望构建实时湖仓以应对挑战。

image

3. 实时背景

首先,公司需要一个实时的数据监控和分析系统,以便及时发现问题并迅速调整策略,以适应市场环境的变化。此外,在获得用户隐私授权下,获取用户的实时行为数据至关重要,这不仅有助于进行个性化推荐,还能及时获取用户的互动反馈,并基于这些反馈调整策略和活动。整体目标是提升用户体验和满意度,增强用户粘性。

尽管我们之前已经做了许多尝试,但实时数据系统的建设依然是一个巨大的挑战。

二、直播数仓架构迭代和升级

1. 架构存在不足

在直播数仓的架构迭代与升级过程中,目前主要依赖 Spark 跑批 T+1 任务,通过 Hive 来执行数据处理。对于部分实时性要求较高的场景,通常通过 Spark 的小时任务或分钟任务来执行。然而,这些方式依然无法真正实现实时效果。

为满足部分实时场景的需求,我们开始尝试使用 Flink 加 Kafka 的组合,或者 Flink 加 StarRocks 的组合来实现更高的实时性。那么,为什么我们没有将所有需要高实时性的数据切换到这两种模式呢?

在尝试 Flink + Kafka 模式时,我们发现其开发和运维的复杂度较高。对于直播数据来说,我们需要跟踪用户的行为,从用户充值到最终产生公司收入的整个链路都需要进行监控。因此,当涉及大量流式数据的 join 操作时,如果这些数据与离线数据出现不一致的情况,排查问题会变得极其困难。

此外,Kafka 的数据生命周期相对较短,这使得在需要进行数据回溯时变得更加困难。这些因素往往导致排查问题的周期延长,增加了运维的复杂性。

流处理中存在大量的流式 Join 操作。如果仅使用 Flink + Kafka,需要持续保留各个流之间的状态信息,这可能导致状态膨胀问题。当任务需要重启时,这些大状态会导致重启失败。如果这种情况发生在活动期间,可能会影响对数据的实时感知。

至于为什么不使用 Flink + StarRocks,是因为如果将所有数据(包括明细数据)都导入 StarRocks,整体成本将会非常高。

2. 技术选型考虑因素

为了满足当前的实时需求,我们主要从以下五个方面进行考虑:

  1. 高稳定性:需要一个高度稳定的系统,确保可靠运行,减少宕机或故障的发生。

  2. 高扩展性:需要一个具备高扩展性的架构,以应对业务需求的频繁变化。无论是离线还是实时业务,需求可能会在系统上线后迅速变化,因此高扩展性能够帮助我们应对用户增长和业务扩展的需求。

  3. 高实时性:系统必须具备一定的实时处理和反馈能力,以满足对实时性的要求。

  4. 低开发门槛:由于团队刚开始接触实时处理,较低的开发门槛有助于快速上手,解决业务实时需求,从而提高团队的整体生产力。

  5. 合理的硬件成本:需要考虑性价比高的解决方案,而不是仅依靠大量资源来实现数据实时化。

3. 数据湖选型对比

image

喜马拉雅曾调研过市面上的多款数据库产品,主要考察了 Delta Lake 和 Hudi。此前,他们主要使用 Delta Lake,但发现它与 Flink 的集成体验不佳,尤其是在处理 Flink CDC时表现较差。相比之下,Hudi 虽然在集成上稍有改善,但运维复杂度较高,且在大数据场景下的入库和查询耗费了大量资源。

尽管 Paimon 是一款较新的产品,生态系统和社区支持尚未完全成熟,但它在性能和开发成本上都更具优势。而且,遇到问题时,社区的反馈和解决速度也很及时。最终,喜马拉雅选择了 Paimon 作为数据湖解决方案。

4. OLAP选型对比

在解决了数据实时入湖的问题后,公司还重点关注了如何提升用户查询速度。喜马拉雅曾深度使用 ClickHouse,并对 ClickHouse 和 阿里云EMR StarRocks 进行了全面对比。

在使用 ClickHouse 的过程中,我们遇到了几个比较棘手的问题。首先,ClickHouse 缺乏对高频率、低延迟的修改或删除已存在数据的能力。它只支持更新,但不支持删除操作。此外,它无法自动化更新视图。

更关键的是,ClickHouse 不支持多表关联,因此我们不得不建立大宽表来存储数据。但对于我们来说,无论是自助取数还是构建看板模型,通常都需要多表关联才能实现展示和分析。相比之下,使用 阿里云EMR StarRocks 时,这些场景都能得到很好地支持和兼容。

image

首先,StarRocks 在基表变动时,物化视图能够自动更新和维护。此外,它支持多种格式的 Join 方式,对于新型雪花模型的关联性能表现更加优越。同时,StarRocks 对多并发查询的支持也非常出色。

StarRocks 提供了四种模型:明细、聚合、组件和更新模型,这些模型已经很好地满足了日常的数据需求。我们在对比了多种方案后,包括传统的离线 Hive、Spark 的分钟和小时级处理,Flink + Kafka、Flink 直接连接 StarRocks 以及 Flink + 数据湖方案,最终选择了 Flink + Paimon + StarRocks 组合。这种架构在性能、成本等方面对我们来说更加友好。

image

5. 实时湖仓架构

针对数据选型,我们设计了一个全新的湖仓架构。对于数据源,如 MySQL 和埋点流量日志,我们通过 Flink CDC 直接将数据写入 Paimon,Paimon 作为 ODS 层,为离线和实时处理提供数据支持。

在实时处理部分,我们使用 Flink 进行数据清洗后,再写入 Paimon,Paimon 进行表间关联,最终将结果写入 StarRocks。StarRocks 利用物化视图和 OLAP 功能,为下游应用提供快速查询支持。

在离线部分,Paimon 同样作为 ODS 层,凭借其组件化更新特性,解决了传统离线处理中的数据延迟问题。例如,订单数据可能延迟多日甚至数周才更新,但通过 Paimon 的主键更新机制,我们无需额外回传处理,离线数据的准确性也因此得到了提升。

image

最终,无论是离线还是实时数据,都通过 StarRocks 对外导出。得益于 StarRocks 出色的查询性能,确保了数据输出的一致性。这种架构不仅稳定性高、实时性强,开发也更加简单。

最初,我们使用的是自研的 Binlog 链进行数据落盘,后来替换为 Flink CDC。这一替换实现了全量和增量数据的无缝衔接,且增量数据部分支持自动扩容。这样极大简化了架构,提高了稳定性,确保数据的精准性与横向扩展能力,同时也提升了数据同步能力。Flink CDC 还支持 schema 字段变更的自动透传至下游,并且不同任务间相互独立运行,保证了数据同步的隔离性。

6. 自研数据集成工具

为了简化操作,平台团队还为我们开发了一款数据集成工具。只需简单配置数据来源和去向,工具就能自动生成 Flink CDC 代码并完成字段级别的映射。这大大提升了我们的开发效率。

image

7. Paimon 应用

原先从数据源同步到数据库可能需要半天到一天的时间才能完成一张表的同步。但自从使用了平台的数据集成工具后,第一次仅用一周时间就完成了50多张表的实时同步,速度显著提升。

我们的架构主要有三大应用:

Paimon 的流读功能:大大提升了实时数据处理的效率。

Paimon 的永久日志保存:不仅支撑了实时库的建设,还作为离线数据存储的 ODS 层基石。

基于组件的更新机制:例如订单状态频繁变更时,Paimon 能够通过组件进行自动更新,避免重复刷新过去半个月的数据。即使主从同步出现延迟,昨天的数据也会通过 T+1 的机制确保次日更新到表中。

8. 遇到的问题

image

在差不多两个月的时间里,我们完成了湖仓架构的建设,过程中也遇到了一些问题。

首先,Paimon 的流与流 Join 加载速度慢,尤其是在活动上线时需要更改逻辑。重启任务后,数据无法正常刷新。最初我们怀疑是资源不足,进行了资源倾斜和小文件合并,但问题依然存在。最后发现是没有限定增量读或指定日期读,导致任务每次重启都会从历史分区开始读取。加上参数后问题得以解决,数据刷新速度大大提升。

其次,在 Paimon 表 Join 维度表时,刚开始运行稳定,但几天后出现丢数据的情况。经过排查,发现维度表未持久化,导致过期而丢失数据。通过参考官方文档,使用 Lookup 格式解决了这个问题。

另外,在直播场景中,我们需要对五张不同类型的业务表进行 Union,生成用户打赏主播的明细数据。整体运行稳定,但在夜晚 23:59 后偶尔会丢失少量数据,虽然影响不大,但我们与社区沟通后确认是已知 Bug,并在版本更新后解决了该问题。

总体来看,我们最大的挑战是用离线思维去开发实时数据,这确实有所不同。另外,Paimon 和 StarRocks 的表结构和参数设置上我们最初也没有完全摸清楚。尽管如此,整体搭建过程中的卡点不多,进展顺利。到 Q2 底,我们已成功完成整个架构的建设,并在直播周年庆活动中正式投入使用,取得了显著的效果和收益。

三、实时湖仓的效果和收益

收益主要体现在以下四个方面:

收入实时化: 通过分钟级别的收入监控,实时感知数据变化,提升业务分析效率和决策质量。

榜单实时化: 实时生成主播流水榜和用户消耗榜,帮助运营团队精准执行点对点的运营策略。

流量实时化: 实时监测 DAU 和 eDAU,掌握直播间的活跃度情况,便于分析和调整运营。

监控实时化: 实时盈亏监控与预警,通过指标关系图快速定位问题,避免未知损失。

四、未来的展望和规划

首先,我们的项目在直播业务场景下已经取得了显著成效。接下来,我们将进一步扩展实时湖仓的应用到其他业务领域,例如广告业务和喜马拉雅的订单管理,逐步推动更多业务接入这一方案。

其次,我们将继续与 Paimon 和 StarRocks 社区紧密交流,深入挖掘其特性,以推动业务的快速增长。

最后,借助实时湖仓的能力,我们计划进一步支持 AI 项目建设。随着 AI 在各行业的普及,对实时数据的高要求也越来越明显。我们希望通过这一方案,助力公司构建强大的 AI 体系。

相关实践学习
AnalyticDB MySQL海量数据秒级分析体验
快速上手AnalyticDB MySQL,玩转SQL开发等功能!本教程介绍如何在AnalyticDB MySQL中,一键加载内置数据集,并基于自动生成的查询脚本,运行复杂查询语句,秒级生成查询结果。
阿里云云原生数据仓库AnalyticDB MySQL版 使用教程
云原生数据仓库AnalyticDB MySQL版是一种支持高并发低延时查询的新一代云原生数据仓库,高度兼容MySQL协议以及SQL:92、SQL:99、SQL:2003标准,可以对海量数据进行即时的多维分析透视和业务探索,快速构建企业云上数据仓库。 了解产品 https://www.aliyun.com/product/ApsaraDB/ads
相关文章
|
4天前
|
SQL 存储 数据挖掘
快速入门:利用AnalyticDB构建实时数据分析平台
【10月更文挑战第22天】在大数据时代,实时数据分析成为了企业和开发者们关注的焦点。传统的数据仓库和分析工具往往无法满足实时性要求,而AnalyticDB(ADB)作为阿里巴巴推出的一款实时数据仓库服务,凭借其强大的实时处理能力和易用性,成为了众多企业的首选。作为一名数据分析师,我将在本文中分享如何快速入门AnalyticDB,帮助初学者在短时间内掌握使用AnalyticDB进行简单数据分析的能力。
11 2
|
16天前
|
存储 SQL 分布式计算
湖仓一体架构深度解析:构建企业级数据管理与分析的新基石
【10月更文挑战第7天】湖仓一体架构深度解析:构建企业级数据管理与分析的新基石
22 1
|
2月前
|
存储 数据采集 OLAP
饿了么基于Flink+Paimon+StarRocks的实时湖仓探索
饿了么的实时数仓经历了多个阶段的演进。初期通过实时ETL、报表应用、联动及监控构建基础架构,随后形成了涵盖数据采集、加工和服务的整体数据架构。1.0版本通过日志和Binlog采集数据,但在研发效率和数据一致性方面存在问题。2.0版本通过Dataphin构建流批一体化系统,提升了数据一致性和研发效率,但仍面临新业务适应性等问题。最终,饿了么选择Paimon和StarRocks作为实时湖仓方案,显著降低了存储成本并提高了系统稳定性。未来,将进一步优化带宽瓶颈、小文件问题及权限控制,实现更多场景的应用。
232 7
饿了么基于Flink+Paimon+StarRocks的实时湖仓探索
|
4月前
|
SQL 关系型数据库 MySQL
如何在Dataphin中构建Flink+Paimon流式湖仓方案
当前大数据处理工业界非常重要的一个大趋势是一体化,尤其是湖仓一体架构。与过去分散的数据仓库和数据湖不同,湖仓一体架构通过将数据存储和处理融为一体,不仅提升了数据访问速度和处理效率,还简化了数据管理流程,降低了资源成本。企业可以更轻松地实现数据治理和分析,从而快速决策。paimon是国内开源的,也是最年轻的成员。 本文主要演示如何在 Dataphin 产品中构建 Flink+Paimon 的流式湖仓方案。
7708 10
如何在Dataphin中构建Flink+Paimon流式湖仓方案
|
4月前
|
存储 SQL 缓存
【报名中】阿里云 x StarRocks:极速湖仓第二季—上海站
阿里云 x StarRocks:极速湖仓第二季,7月20日阿里巴巴上海徐汇滨江园区,现场签到丰富奖品等你拿,不见不散!
313 7
【报名中】阿里云 x StarRocks:极速湖仓第二季—上海站
|
3月前
|
存储 缓存 容器
实时数仓Hologres构建效率问题之瘦身如何解决
提升构建效率的原则首重准确性,在确保无误的基础上优化流程。应用瘦身通过精简依赖减轻构建负担。分层构建利用底层共享减少重复工作。构建缓存存储以往结果,避免重复工序,显著提速。这些策略共同作用,有效提高构建效率与质量。
37 0
|
3月前
|
容器
实时数仓Hologres构建环境问题之Dockerfile描述如何解决
在制品构建时明确依赖版本可避免因版本变动引起的构建差异,确保一致性与可预测性。通过Dockerfile指定确切版本的依赖与环境,能够跨平台重现相同的构建环境。为保证构建脚本一致性,应采用与业务代码解耦的构建脚本,并严格控制环境变量。构建准确性和速度都很重要,但通常准确性优先,确保制品质量稳定可靠。
45 0
|
4月前
|
存储 数据挖掘 OLAP
阿里云 EMR Serverless StarRocks OLAP 数据分析场景解析
阿里云 E-MapReduce Serverless StarRocks 版是阿里云提供的 Serverless StarRocks 全托管服务,提供高性能、全场景、极速统一的数据分析体验,具备开箱即用、弹性扩展、监控管理、慢 SQL 诊断分析等全生命周期能力。内核 100% 兼容 StarRocks,性能比传统 OLAP 引擎提升 3-5 倍,助力企业高效构建大数据应用。本篇文章对阿里云EMR Serverless StarRocks OLAP 数据分析场景进行解析、存算分离架构升级以及 Trino 兼容,无缝替换介绍。
19179 12
|
4月前
|
运维 数据挖掘 Serverless
深度解析阿里云EMR Serverless StarRocks在OLAP数据分析中的应用场景
阿里云EMR Serverless StarRocks作为一款高性能、全场景覆盖、全托管免运维的OLAP分析引擎,在企业数据分析领域展现出了强大的竞争力和广泛的应用前景。通过其卓越的技术特点、丰富的应用场景以及完善的生态体系支持,EMR Serverless StarRocks正逐步成为企业数字化转型和智能化升级的重要推手。未来随着技术的不断进步和应用场景的不断拓展我们有理由相信EMR Serverless StarRocks将在更多领域发挥重要作用为企业创造更大的价值。
|
4月前
|
分布式计算 DataWorks Java
DataWorks产品使用合集之怎么选择Doris或StarRocks作为DataWorks的OLAP解决方案
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。