小米基于 Flink 的实时数仓建设实践

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 本次分享围绕小米在实时数仓方面的探索与实践展开,主要涉及:Flink+Iceberg 实时数仓架构升级,稳定性与实时性优化;基于当前 Flink 实时数仓的不确定性问题,介绍 Merge into 功能和算子级状态清理的解决方案。

摘要:本文整理自小米软件开发工程师周超,在 Flink Forward Asia 2022 平台建设专场的分享。本篇内容主要分为四个部分:

  1. 小米数仓架构演变

  2. Flink+Iceberg 架构升级实践

  3. 流批一体实时数仓探索

  4. 未来展望

点击查看原文视频 & 演讲PPT

一、小米数仓架构演变

1.1 数仓架构现状

1

在介绍演变前,我们先来了解下小米当前的技术现状。

上图展示的是小米目前的技术架构,在存储侧我们主要应用数据湖 Iceberg 和自研消息队列 Talos,计算层主要应用 Flink 和 Spark,他们统一运行在 Yarn 上,统一通过 Metacat 获取元数据信息,并通过 Ranger 来进行统一的鉴权服务。我们内部使用 Spark 和 Presto 来支撑 OLAP 查询场景,并通过 Kyuubi 来实现路由。

在实时数仓场景中,我们选择 Flink 作为计算底座,Hive、Talos、Iceberg 作为存储底座,其中,消息队列 Talos 作为传统 Lambda 架构的通用选择,在我们内部占比较大且很稳定,Iceberg 作为一款优秀的湖存储,兼具时效性和低成本,其使用占比也在逐步提升,使用到 Iceberg 的 Flink 作业在总占比中已经达到近 50%。

2

我们对内部实时链路进行了统计,Iceberg 在大多数场景下已经对 Hive 进行了替换,对分钟级的实时链路进行了较好的支撑;因为使用 Iceberg 搭建的实时链路目前仅能达到分钟级的时效,消息队列仍有着较高占比。

1.2 数仓架构演变

3

接下来看下小米内部数仓架构的演变历程。

在引入数据湖前,针对日志埋点这样的聚合计算场景,业务会使用离线计算来搭建链路,采集模块会将日志或埋点数据统一收集到消息队列中,Flink 消费消息队列中的数据实时写入 ODS 层 Hive 表,下游的计算则采用 Spark 或者 Hive 按小时或天进行清洗、聚合。显然,这样的链路处理延迟和成本都较高,这些离线作业往往都在凌晨进行调度,给整个集群带来较大压力。

4

针对 CDC 数据源,实时数据通常会通过消息队列进行流转,保证处理的实时性,数据在消息队列中以 Changelog-Json 的格式进行存储。但为了保证计算的准确性,业务链路通常会使用 Lambda 架构来搭建,会额外引入一条离线链路。离线链路基于 Hive 或 Kudu 构建,ODS 层使用 Spark Streaming 近实时导入,部分场景也会定期全量导入,下游计算依赖 Spark 做定时调度。显然,这样的架构开发和维护的成本都会很高。

5

带着上面的问题,我们想要对批和流链路进行统一,并能够满足低成本和低延迟,为此我们引入了 Iceberg,在引入 Iceberg 初期,小米内部的使用以 v1 表为主(v1 表是数据分析表,支持 Append 类型数据的增量读写)。因为 Flink 旧架构(1.12 版本)读取 Iceberg 的数据时效性不高,所以在日志埋点场景的应用主要是替换了 Hive,使用 Iceberg 来存储 ODS、DWD 层数据,可以降低存储成本,同时配合 Spark、Presto 可以获得更快的查询速度。

6

针对 CDC 数据源的场景,在初期也同样以替换 Hive 为主以获取更低的成本。

7

在中期,我们对 Iceberg v2 表不断完善,v2 表在 v1 表的基础上支持了行级别的更新和删除,同时也支持了 Merge on read 模式,并且有着不错的性能。业务的实时链路也可以完全依赖 Flink 和 Iceberg 来进行搭建。之前的日志埋点链路通过 Iceberg v2 表的升级后,使用 Flink+Iceberg v2 替换了原先的 Spark + Iceberg v1,将链路时效性由小时级提升至分钟级。

8

由于 v2 表能够支持行级别的更新,而且数据实时可查,原本针对 CDC 数据源的 Lambda 架构链路可以升级到 Kappa 架构,由 Flink 和 Iceberg v2 表来构建,兼顾时效性和成本,依赖 Parquet+ZSTD 压缩,存储成本相比于原先 Parquet+snappy 能够节省 30%。

1.3 当前架构遇到的问题

9

经过我们一段时间的使用,我们发现目前 Iceberg 能够很好地兼顾成本、查询效率,社区的很多优化也以离线为主,但在实时中存在着时效性和稳定性方面的不足,距离消息队列仍有差距,同时,Iceberg 作为统一的存储 Format,在实际消费时需要读取底层文件,而 v2 表有着多种文件类型,读取时需要组织 DataFile 和两类 DleteFile(Equlity delete 和 Position delete)的关系,逻辑较为复杂。

我们在基于 Flink+Iceberg 的实时链路构建中,经常会遇到以下两类问题:

  • 链路实时性略差,相比于消息队列仍有差距,目前仅能够稳定在 15 分钟左右。

  • 链路稳定性略差,经常因为链路中一张表的消费积压导致作业失败,从而使得整体链路不可用,严重依赖人工干预。

二、Flink+Iceberg 架构升级实践

2.1 基于 Flink1.12 的旧架构实现

10

针对上述的两个问题,我们对 Flink+Iceberg 的架构进行了升级。

上图中的实时数仓链路由多张 Iceberg 表和多个 Flink 作业组成,其中 Iceberg 负责数据的存储,Flink 负责数据的清洗、流转,显然对一条链路的实时性和稳定性支撑,Flink 起了关键作用。在一个 Flink 流式作业中,数据会经过读取、计算、写入,在实际场景中,我们发现数据的读取效率低,严重影响了作业吞吐,后续的相关优化也主要围绕读取部分展开。

11

在介绍优化之前,先来了解下读取架构的现状。

在优化前,我们的 Flink+Iceberg 实时链路主要依托于 Flink 1.12 版本构建,在 1.12 版本中,读取逻辑被拆分为 Monitor 和 Reader 两个算子,在进行增量消费时,Monitor 算子扫描 Snapshot 中的文件,并组织成 Split 发往下游给 Reader 算子消费。这样的架构做到了很好的扫描和读取逻辑分离,但是仍有几点重要缺陷,例如:Split 信息在 Jobmanager 和 TaskManager 之间单向同步、单一的时间驱动扫描、以及我们为了保证顺序性而限制了读取并发为 1,这些点一起影响着消费速度。

2.2 旧架构遇到的主要问题

12

这样的缺陷在实际作业中会有实时性和稳定性两大问题表现。在实时性方面,存在着消费速度慢、消费存在波动;在稳定性方面,存在着 Task OOM,Checkpoint 容易超时。

13

为了保证拓扑的有向无环,数据在上下游算子之间只能单向流动,这导致扫描进度和读取进度只能够单向同步,Monitor 算子感知不到 Reader 算子的消费情况;在这种单向同步的机制下,Monitor 会在一定周期内下发固定的 Split 数,如果在一个周期内发送 Split 的数量较少,那么 Reader 算子会有部分时间处于空闲状态,导致消费存在波动,存在资源浪费。 而如果一个周期内下发的 Split 超过了 Reader 的消费能力,那么 Split 就会在 Reader 侧堆积,占用额外的堆内存。

同时固定的扫描间隔也会导致消费的延迟,新数据需要等待一定扫描间隔后才可能被消费到。而单并发消费又限制了作业的吞吐上限,以上这三点一起影响着实时性。

14

这样的机制不仅影响着实时性,对稳定性也有不小的影响。Monitor 和 Reader 的单向同步机制,使得消费需要指定间隔和间隔内下发的 Split 数,未消费完的 Split 会存储在堆内存中,积压较多会导致 OOM、Full gc 频繁,Task 吞吐降低。

同时,旧架构的 SourceFunction 在实现数据下发时需要持有 Checkpoint 锁从而保证数据下发和状态更新的一致,而 Reader 算子 Checkpoint 粒度仅细化到 Split 级别,所以 Reader 算子需要长时间去持有 Checkpoint 锁,只有消费完一个 Split 后才会释放,这在下游处理慢,反压情况下是致命的缺陷,很容易导致 Checkpoint 超时。这些点一同促使着作业稳定性的降低。

2.3 基于 Flink1.14 的新架构实现

15

为了解决上述实时性和稳定性问题,我们在社区基于 FLIP-27 的改动上改进了读取逻辑,主要涵盖了上图右侧的七点,其中双向通信,Monitor 逻辑移至 JobManager 是 FLIP-27 的关键优化点。我们内部主要对后面的五点进行了优化,分别是 Snapshot 的依次扫描、自适应的扫描模式、分区多并发消费等。

16

增量消费 Iceberg 存在着两种方式,分别为依次扫描 Snapshot 和合并多个 Snapshot 扫描。在合并多个 Snapshot 的扫描模式中,需要依赖 Merge on read 模式,用后续 Snapshot 中的 Delete 文件对当前 Snapshot 中的 Data 文件数据进行过滤。如果合并多个 Snapshot 进行消费,那么一个 DataFile 可能会关联到很多后续 Snapshot 的 DeleteFile,使得 Split 的组织变得复杂,同时 Reader 算子在使用 DeleteFile 过滤 DataFile 时,需要将 Equlity delete file 全部读取到内存中,这也很容易导致 Task 产生内存问题。

我们默认将扫描模式设置为了依次扫描,该模式可以更好地追踪数据变化,并且降低文件组织复杂度,避免了在合并多个 Snapshot 模式中因为 Delete 文件较大而产生的内存问题,对稳定性更加友好。

17

旧架构中,扫描逻辑主要由时间驱动,定时触发,在新架构中,我们引入了自适应的扫描模式,增加了事件驱动,解决了消费波动和 Task 潜在的内存问题。在实际扫描过程中,动态 Enumerator 会根据内存中 Buffer 的反馈进行决策,小于阈值就立刻执行扫描操作,保证 Reader 能够连续消费,大于阈值就阻塞扫描,避免将更多的 Split 缓存在内存中。

18

在新架构中,我们针对 v2 表实现了并发消费,将原本的单一队列 Buffer 按照下游 Task 拆分成多个队列 Buffer,Iceberg 表中不同分区的数据文件会按照写入排序,并被 Hash 到不同的队列,实现消费的分区有序。

同时为了保证各个 Task 消费数据的对齐,我们使用 Snapshot 的提交时间来生成 Watermark,引入 AlignedAssigner 来实现统一的 Split 分配,在分配端实现对齐,保证下游各个 Task 消费数据的对齐。

19

上面我们讲到的自适应扫描只能解决单个 Source 实例的问题,在实际应用中,部分场景仍有潜在稳定性问题存在,例如集成场景中的指标拆分,将一张表的数据拆分至多张表;数仓场景中,对同一张表进行多次引用,筛选不同部分的数据进行 Join。在这两个使用场景中,因为不满足 Source 复用规则,会有多个读取同一张 Source 表的实例存在。

在 Flink 中,Source 的复用受 Partition、Limit、Project、Filter 影响,以 Project 和 Filter 为例。上图左边的 SQL 描述了 Project 下推导致的复用失效,因一个字段的区别,同一份数据就会被读取三次;上图右边的 SQL 描述了 Filter 下推导致复用失效的场景,即使选取的范围有很大重复,但 Source 仍不会得到复用。由于复用的失效,同一个表的相同 Split 会在内存中存在多份,依然有出现内存问题的可能。

20

为了优化这种情况,我们引入了两种方式。

  • 通过规则来自动对当前不符合复用的 Source 算子执行复用。

  • 支持在 SQL 中手动指定表实行强制复用。这样的优化在减少内存占用、减少数据重复读取方面有着不错的效果,节省作业资源的同时也增加了稳定性。

21

通过切换至新架构,消费 Iceberg 表的平均扫描间隔降至小于 1 秒,单个 Task 吞吐提升至 70 万条每秒,实时数仓链路新鲜度提升至 5 分钟内。

三、流批一体实时数仓探索

上一章介绍了 Flink 读取 Iceberg 架构的优化,这一章将主要介绍小米在 Flink 流批一体实时数仓上遇到的问题以及相关探索。

22

遇到的问题可以归结为三类。

第一类是数据波动,实时数仓中数据是不断变化的,由于 Flink 回撤机制的存在,-U 和+U 会拆分为两条数据写入,在-U 写入,+U 未写入时执行查询,会查询到异常数据,而在+U 写入后又能查询到正常结果。

第二类是计算不确定性,Flink 的状态过期会导致计算结果的不确。同时针对这部分异常数据,往往没有简单的对比、修复手段,这导致实时数据产出的数据修复难。

23

针对数据波动问题,考虑到下游绝大多数系统都能够支持 Upsert 写入,我们引入了写入前数据丢弃能力,用于丢弃无关紧要的数据,将其称为 Drop Operator。该算子作用在 Sink 节点前,能够根据配置丢弃指定类型的数据。

针对 Flink 聚合增量数据写入 ADS 层 MySQL 的场景,可以配置丢弃-U,避免 ADS 层查询波动。同样,该配置可以很方便的将 Changelog 流丢弃-U 和-D 转为 Append 流,满足一些特殊的业务场景。

24

在解决计算的不确定性前,我们需要先了解其产生的原因。在 Flink SQL 中,状态起着重要作用,正确的中间状态是计算结果正确的必要条件。但显然,目前状态的保持是昂贵的,我们需要一个状态过期策略来进行平衡。

在 Flink 内部,有着 Watermark 清理和 TTL 清理两类算子。Watermark 可以根据业务的需要去生成,清理的策略根据实际使用场景制定,所以对计算结果影响可控。而依赖 TTL 清理的这类算子,在 Flink SQL 中状态过期的策略无法得到准确控制,只能设置一个统一的状态过期时间,往往因为过期时间设置不合理或者满足不了业务需求,从而产生预料之外的计算结果。

25

例如物流、服务单场景,订单从创建到关闭的时间跨度往往很长,很容易出现在订单还没有结束前,状态就过期了。为了解决订单跨度时间长导致状态丢失的问题,业务会设置一个离线的 Topic,通过离线链路定期往离线 Topic 里补数据,补充的数据重新流入实时链路中,将过期状态重新补回。

26

针对由状态过期而导致的计算不确定问题,我们有两种解决思路。

  • 针对定时批量补状态,我们尝试从源头解决问题,让状态按需过期,减少额外链路维护。

  • 针对定时批量修复异常数据,我们想要提供更加简单方便的修复途径。

27

为了能够让状态按需过期,我们引入了算子级的状态清理功能,将清理规则应用范围从作业细化到各个算子,将清理规则从时间规则拓展到业务规则,并通过 Query Hint 对算子提供灵活、方便的定义。

28

目前该功能支持两类算子,分别是 Group 聚合算子和 Regular Join 算子,上图表格为支持的参数,通过 TTL 的参数可以设置该算子状态的过期时间,condition 参数可以填写清理规则,为了方便判断,清理规则需要是布尔表达式。

29

上图的 SQL 展示了求某类商品总销量的聚合计算逻辑,该聚合算子状态保存时间为 30 天,覆盖了作业级的 1 天保存时间,且当商品状态为售罄或下架,那么就清除该商品的状态,这意味着有关该商品的销售记录后续不会再出现。

在聚合算子里,我们加入了一个状态清理的检查器,将用户设置的清理规则经过 codegen 转换为 Java 代码,在聚合计算后进行规则检查,匹配成功后执行清理。

30

同样针对 Join 算子,状态清理检查器的实现类似,只是在 Join 算子会对左右表的状态分别进行清理,清理完后会去对方状态中将引用计数-1。

上图的 SQL 示例描述了一个物流表的 Join 场景,左表为物流订单表,保存着订单状态以及更新时间,右表为维度表,保存着该订单的一些基础信息,包括创建时间。在图中的例子中,Join 算子的状态清理不再依赖 Proctime,只依赖于运单状态和运单的持续时间。

31

虽然算子级状态清理能够解决一部分需求,但它的使用门槛较高,且并非所有业务都有明确的清理规则,一个简单方便的修复手段才适用于所有场景。如果想要用 Flink Batch 对数据进行修复,目前有 INSERT 和 OVERWRITE 两种方式。使用 INSERT 实现 SQL 逻辑较为复杂,且只能对数据进行覆盖,不能删除;OVERWRITE 的修复方式粒度较粗,而且会使下游实时作业产生较大波动。

在这样的场景下,我们使用 Flink 实现了 Merge 语法。Merge 语法会对两个数据源做 Join,并可以针对不同的 Join 情况执行增、删、改操作,对下游影响小。

32

在具体的实现上,我们在原本的 Calcite 语法上完善了 Merge 语法的解析逻辑,支持为每个 Action 设置独立的判断条件,在 Schema 匹配情况下支持 Insert 和 Update 语句,简化逻辑。

在 SQL 校验阶段,Merge 逻辑会被转为 Outer Join 和多个 Merge Action 的结合。在优化阶段,目前我们会根据实际的 Merge Action 情况来优化 Join 方式,将默认的 Outer Join 改写为 Anti Join 或者 Inner Join,减少处理的数据量。

最终,Merge 逻辑会生成 Join 和 MergeAction 两个算子,Merge Action 算子根据上游 Join 情况来生成增、删、改数据并发往下游。由于 Flink SQL 目前提供了优秀的流批一体架构,可以复用当前的逻辑,将增删改数据写入下游数据系统。

33

在我们内部,Spark 和 Flink 目前都支持 Merge 语法,但 Spark 在框架层只提供了语法侧的支持,Runtime 层的支持在 Iceberg 侧由插件实现。Flink 则在框架中实现了语法和 Runtime 层的支持,使得 Merge 的功能更加通用,也能够支持更多存储系统。目前,在我们内部,Flink merge into 入湖和入库场景使用较多。

34

因为实现原因,Spark 在我们内部目前仅能支持 Merge into 入湖,所以我们在 Merge into 入湖场景下对 Spark 和 Flink 的处理速度做了测试,目前中小批量数据的 Merge 操作 Flink 执行速度会略快,大数据场景下 Flink 因为入湖速度较 Spark 慢,所以耗时稍多,但整体来看,Flink 已经能够满足日常修复需求。

四、未来展望

35

我们的未来展望主要包括以下三点:

  • 基于 Iceberg 的秒级湖仓建设,目前 Flink+Iceberg 在我们内部实时链路中能够很好的支持分钟级的场景,我们希望未来在实时性上有所突破,将链路新鲜度提升至秒级。
  • 基于 Iceberg 的完整 CDC 的支持。目前,如果一张 Iceberg 被多个上游并行写入,或者单个作业回溯写入,我们需要使用 Upsert 模式,写入+I 或+U 前默认写入一条-D,但因为缺少信息,写入的 Delete 可能是多余的且无法获取到正确的非主键列值,我们希望在后期能够对其完善,使得下游能够读取到正确完整的 CDC 数据。
  • 跟进基于 Flink SQL Gateway,完善动态查询的支持。

点击查看原文视频 & 演讲PPT


更多内容

img


活动推荐

阿里云基于 Apache Flink 构建的企业级产品-实时计算 Flink 版现开启活动:
0 元试用 实时计算 Flink 版(5000CU*小时,3 个月内)
了解活动详情:https://free.aliyun.com/?pipCode=sc

image.png

相关实践学习
AnalyticDB MySQL海量数据秒级分析体验
快速上手AnalyticDB MySQL,玩转SQL开发等功能!本教程介绍如何在AnalyticDB MySQL中,一键加载内置数据集,并基于自动生成的查询脚本,运行复杂查询语句,秒级生成查询结果。
阿里云云原生数据仓库AnalyticDB MySQL版 使用教程
云原生数据仓库AnalyticDB MySQL版是一种支持高并发低延时查询的新一代云原生数据仓库,高度兼容MySQL协议以及SQL:92、SQL:99、SQL:2003标准,可以对海量数据进行即时的多维分析透视和业务探索,快速构建企业云上数据仓库。 了解产品 https://www.aliyun.com/product/ApsaraDB/ads
相关文章
|
2月前
|
存储 数据采集 大数据
Flink实时湖仓,为汽车行业数字化加速!
本文由阿里云计算平台产品专家李鲁兵(云觉)分享,聚焦汽车行业大数据应用。内容涵盖市场趋势、典型大数据架构、产品市场地位及能力解读,以及典型客户案例。文章详细介绍了新能源汽车市场的快速增长、大数据架构分析、实时湖仓方案的优势,以及Flink和Paimon在车联网中的应用案例。
184 8
Flink实时湖仓,为汽车行业数字化加速!
|
2月前
|
消息中间件 监控 数据可视化
实时计算Flink场景实践和核心功能体验
本文详细评测了阿里云实时计算Flink版,从产品引导、文档帮助、功能满足度等方面进行了全面分析。产品界面设计友好,文档丰富实用,数据开发和运维体验优秀,具备出色的实时性和动态扩展性。同时,提出了针对业务场景的改进建议,包括功能定制化增强、高级分析功能拓展及可视化功能提升。文章还探讨了产品与阿里云内部产品及第三方工具的联动潜力,展示了其在多云架构和跨平台应用中的广阔前景。
60 9
|
29天前
|
分布式计算 大数据 OLAP
AnalyticDB与大数据生态集成:Spark & Flink
【10月更文挑战第25天】在大数据时代,实时数据处理和分析变得越来越重要。AnalyticDB(ADB)是阿里云推出的一款完全托管的实时数据仓库服务,支持PB级数据的实时分析。为了充分发挥AnalyticDB的潜力,将其与大数据处理工具如Apache Spark和Apache Flink集成是非常必要的。本文将从我个人的角度出发,分享如何将AnalyticDB与Spark和Flink集成,构建端到端的大数据处理流水线,实现数据的实时分析和处理。
54 1
|
2月前
|
运维 监控 安全
实时计算Flink场景实践和核心功能体验
实时计算Flink场景实践和核心功能体验
|
2月前
|
运维 数据可视化 数据处理
实时计算Flink场景实践和核心功能体验 评测
实时计算Flink场景实践和核心功能体验 评测
59 4
|
25天前
|
数据采集 运维 搜索推荐
实时计算Flink场景实践
在数字化时代,实时数据处理愈发重要。本文分享了作者使用阿里云实时计算Flink版和流式数据湖仓Paimon的体验,展示了其在电商场景中的应用,包括数据抽取、清洗、关联和聚合,突出了系统的高效、稳定和低延迟特点。
49 0
|
2月前
|
SQL 分布式计算 数据挖掘
加速数据分析:阿里云Hologres在实时数仓中的应用实践
【10月更文挑战第9天】随着大数据技术的发展,企业对于数据处理和分析的需求日益增长。特别是在面对海量数据时,如何快速、准确地进行数据查询和分析成为了关键问题。阿里云Hologres作为一个高性能的实时交互式分析服务,为解决这些问题提供了强大的支持。本文将深入探讨Hologres的特点及其在实时数仓中的应用,并通过具体的代码示例来展示其实际应用。
193 0
|
2月前
|
人工智能 自然语言处理 关系型数据库
阿里云云原生数据仓库 AnalyticDB PostgreSQL 版已完成和开源LLMOps平台Dify官方集成
近日,阿里云云原生数据仓库 AnalyticDB PostgreSQL 版已完成和开源LLMOps平台Dify官方集成。
|
2月前
|
人工智能 分布式计算 数据管理
阿里云位居 IDC MarketScape 中国实时湖仓评估领导者类别
国际数据公司( IDC )首次发布了《IDC MarketScape: 中国实时湖仓市场 2024 年厂商评估》,阿里云在首次报告发布即位居领导者类别。
|
3月前
|
存储 机器学习/深度学习 监控
阿里云 Hologres OLAP 解决方案评测
随着大数据时代的到来,企业面临着海量数据的挑战,如何高效地进行数据分析和决策变得尤为重要。阿里云推出的 Hologres OLAP(在线分析处理)解决方案,旨在为用户提供快速、高效的数据分析能力。本文将深入探讨 Hologres OLAP 的特点、优势以及应用场景,并针对方案的技术细节、部署指导、代码示例和数据分析需求进行评测。
134 7

相关产品

  • 实时计算 Flink版