B 站构建实时数据湖的探索和实践

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: bilibili 大数据实时团队资深开发工程师周晖栋,在 Flink Forward Asia 2022 实时湖仓专场的分享。

摘要:本文整理自 bilibili 大数据实时团队资深开发工程师周晖栋,在 Flink Forward Asia 2022 实时湖仓专场的分享。本篇内容主要分为四个部分:

  1. 背景和痛点
  2. 场景探索
  3. 基建优化
  4. 总结和展望

点击查看原文视频 & 演讲PPT

一、背景和痛点

1

在大数据场景应用中,业务不仅要计算数据结果,而且要保障时效性。目前,我司演化出两条链路。时效性高的数据走 Kafka、Flink 实时链路;时效性要求低的数据走 Spark 离线链路。上图简单描述了 B 站数据上报、处理和使用的链路。数据采集主要通过 APP 端上报的行为事件数据。服务端上报的日志数据会通过网关以及分发层,流式分发到大数据数仓体系内。

MySQL 中存储的业务数据,通过 Datax 周期性的批式同步到数仓内。时效性高的数据会通过 Flink+Kafka 进行流式计算。时效性低的数据通过 Spark+HDFS 进行批计算最后出仓到 MySQL Redis Kafka 的介质中,为 AI、BI 的模型训练、报表分析场景使用。

在使用的过程中,也发现了诸多问题。

  1. 离线数据的时效性不足,离线批计算以小时/天为单位。越来越多的业务方希望时效性达到分钟级,离线的小时计算或天计算不能满足业务方的需求。为了达到更高的时效性,业务会再开发一条实时链路。
  2. 但实时链路的可观测性较弱。因为在 Kafka 里查看数据并不方便,所以需要将 Kafka 里的数据移动到其他存储中,才能进行查看。实时数据链路普遍不容易和业务时间对齐,难以准确定位到需要重跑的起点。如果数据出现异常,业务一般不会选择在实时流上进行重跑,而是进行离线链路的 T-1 修复。
  3. 实时离线双链路会有双份的资源开销,开发以及运维成本。除此之外,口径不一致还会带来额外的解释成本。
  4. 全天计算资源高峰集中在凌晨,整个大数据集群的使用峰值在凌晨 2 点~8 点。主要在跑天级任务,也存在任务排队的现象。其他时段的资源比较空闲,使用时有明显的峰谷现象。整体资源使用率有一定的优化空间。
  5. 在数据出仓孤岛方面,对于用户来说还需要克隆一份数据到 HDFS 上,因此会存在数据一致性的问题。当数据出仓后,权限以及数据联邦查询都会存在不足。

我们希望通过实时数据湖方案,解决以上痛点。

  1. 我们通过 Flink+Hudi 将数据增量,以及增量计算产出的结果存储在 Hudi 中,支持分钟级的数据计算,进一步增强了数据的时效性。
  2. 除此之外,Hudi 具备流表二象性,不但可以进行实时的流式增量消费,而且可以作为表,直接进行查询。相比 Kafka 链路,进一步增强了可观测性。
  3. 实时数据湖同时满足实时和离线的需求,达到降本增效的效果。除此之外,它还支持离线数仓数据重跑的诉求。
  4. 通过增量计算,将原本在 0 点以后分配的数据资源进行细分,分摊到全天的每分钟,错峰的使用资源。
  5. 通过排序、索引、物化等方式,我们可以直接查询 Hudi 表中的数据,从而达到数据不出仓的效果。

二、场景探索

2

当业务系统数据存储在 MySQL 中,需要将这些数据导入到大数据的数仓中,进行报表、分析、计算等场景。目前,业务数据入仓不仅用于离线 ETL,还期望具备时效性。比如在稿件内容审核场景中,工作人员希望知道近十分钟的稿件增长量是否匹配稿件审核人力,存在实时监控诉求,以及告警诉求。稿件的数据来源于业务数据库,它并不满足于当前天级、小时级数据同步的时效性,希望能达到分钟级的时效性。

在降本增效的大背景下,我们不仅要满足业务诉求,还要考虑效能。实时链路用于实时场景,离线链路用于批量的 ETL 场景比较浪费。所以我们希望通过实时数据湖,构建一套流批统一的方案,同时满足实时和离线场景的诉求。通过调研发现,现有的方案中有以下几类:

第一,DataX 定期批量导出数据到 Hive。

Hive 本身并不具备更新能力,一般按天来导出全量,并不满足时效性诉求。除此之外,该方案还存在数据冗余的问题。Hive 表每天的分区,都是 MySQL 表当天的快照。比如一张用户信息表的信息变化很少,每天都需要存储一遍全量快照。即每条用户信息,每天都会被存储一次。如果 Hive 表的生命周期是 365 天,那这条数据会被重复存储 365 次。

第二,Canal/CDC to Hudi 方案。

DB 的数据通过 Canal 或 Flink CDC 写入 Hudi 中,从而满足时效性的诉求。由于 Hudi 的数据实时更新,不具备可重复读的能力。因此该方案并不满足 ETL 场景。即使使用 Hudi"快照读"的能力。虽然可以读取 Hudi 的历史的 Commit,获取一份某一时刻的快照数据。但如果长时间的保留 Commit 数据,会导致文件过多,会影响访问 timeline 的性能,进而影响到 Hudi 的读写性能。

第三,Hudi export Hive 方案。

该方案是前两个方案的结合,将 DB 的数据通过 Canal/CDC,写入 Hudi 之后,进行周期性的导出到 Hive 表。Hudi 表用于实时场景,Hive 表用于离线的 ETL 场景。从而同时满足两方面的场景诉求。其缺点在于,用户在使用过程中用到了两张表,存在一定的理解成本,以及数据冗余问题。

第四,Hudi Savepoint 方案。

主要解决数据冗余的问题。通过周期性的 Savepoint,可以存储 Hudi 当时的 timeline 元数据。访问 Savepoint 时,会映射地访问到 Hudi 的实际文件,避免冗余的存储数据文件。每天一个 Savepoint,相当于每天存储一份 MySQL 快照,从而满足了 ETL 场景复读的诉求。与此同时,还可以直接访问 Hudi 的最新数据,满足用户的实时诉求。

但该方案仍有一些缺陷,它无法精确的切分跨天数据。通过 Flink 增量写 Hudi 时,会周期性的产生 Commit,无法控制业务时间和 Commit 对齐。如果昨天和今天的数据落在同一个 Commit 里,Savepoint 会以 Commit 为最小力度。当访问昨天的 Savepoint 时,它会包含今天的数据,与用户的预期不符。

3

为了解决上述问题,我们提出的解决方案是 Hudi Snapshot View 快照视图。在 Hudi Savepoint 方案上做了改进,简单来说是一个带过滤的 Hudi Savepoint。

在导出 Hive 方案中是可以加过滤条件,将第二天的数据过滤出去。我们把过滤逻辑纳入到 Hudi 快照视图中。在快照视图里将过滤逻辑,做在 Hudi 底层,存储在 Hudi Meta 中。在访问快照视图时,我们会吐出过滤后的数据,从而解决快照里存在跨天数据的问题。

如上图所示,Delta Commit T3 包含了 11 月 1 号和 11 月 2 号的数据。快照视图的源数据在存储时,将历史的 T1、T2、T3 的源数据全部进行存储。除此之外,还存储了 Delta<=11 月 1 号的过滤条件。在读取时将数据进行过滤,将仅包含 11 月 1 号及以前的数据给查询端,并不包含 11 月 2 号的数据。

快照视图同样是存储元数据,通过映射的方式,访问实际的数据文件,不存在数据冗余存储的问题。也同时满足实时和离线场景,实现了流批统一。除此之外,快照视图是独立切出了一个 timeline,支持再做 Compaction、Clustering 等操作来加速查询。

4

接下来,讲一讲 Snapshot View 的生成时机。用户应该在哪次 Commit 后,做下这个快照视图?这里需要理解两个概念,一个是事件时间,一个是处理时间。

当数据出现延迟,虽然现实中的时间到达了 0 点,但它可能还在处理 22 点的数据。此时,如果进行快照视图,用户读取的快照视图数据就会偏少。因为 Commit 是处理时间,不是业务的事件时间。这个 Snapshot View 要在事件时间推进到 0 点后进行,才能够保证数据的完整。为此,我们在 Hudi 中增加了处理进度。这个概念类似于 Flink 中使用 Watermark 来标识处理进度。我们扩展了 Hudi Meta 在 Commit 中存储了处理进度。当事件时间推进到 0 点后,开始进行 Snapshot View 操作,通知下游任务可以被调起。在 Meta 中有了事件的处理进度,在查询 Hudi 时也能获取处理进度,从而进行一些判断。

5

除此之外,我们还做了引擎层的适配。在使用方面,用户写的 SQL 和原来的基本一致,通过 hint 或者 set 参数,指定是查询快照分区或者是查询实时分区。在 DB 入仓的场景上,既满足了实时场景的时效性,又满足了 ETL 的离线诉求,成功实现了实时和离线的统一,达到降本增效的目的。

6

接下来,讲一讲埋点入仓场景。我司作为一家互联网公司,也会进行用户的行为事件定义,收集数据、上报入仓,然后进行分析和使用。用数据驱动指导业务发展。

我司的用户⾏为事件上报已经颇具规模,行为事件非常多。现在已经定义了上万个行为事件的 ID,每天日增千亿条数据,流量非常大。埋点入仓是公司级的项目,全站各个业务方都在上报埋点。在使用埋点时,我司存在大量部门业务线的交叉使用。比如广告 AI 需要使用其他业务线上报的数据,进行样本收集和训练。

在原有架构上,APP 端上报的数据经过传输和清洗,落入数仓预先划分好的表分区中,供给业务方进行开发使用。这种业务划分是根据 BU、事件类型等业务信息,进行的粗粒度划分。下游的任务可以使用自己部门的表以及其他部门的表,只需要申请权限即可。

但该架构也存在一些痛点。一条流数据的隔离性不够,上万个埋点由同一个渠道传输,清洗,隔离性不足。容易出现活动期间某个行为事件猛增,影响整体的任务处理进度。除此之外,业务线使用需要过滤大量无用数据。在下游业务的任务中,可能仅用到自己的一个行为事件进行分析。但此时行为事件与同部门其他的行为事件混在一起。在条件过滤时,引擎层只能做到分区级的过滤。将整个分区的文件加载进来,然后进行过滤,有较大文件读取的 IO 浪费。与此同时,部门在交叉使用数据时,权限管理较难,使用到了其他 BU 的一个行为事件,需要申请整个 BU 表的权限。粒度粗,存在风险。下游有分钟级的诉求。目前,数据进行流式传输是小时级的清洗。下游的时效性是小时级别,不满足用户的时效性的诉求。

7

为了解决上述问题,我们做了一些架构上的优化。如上图所示,数据上报传输后,将数据落到户的 Hudi 表里。用户通过 View 来访问或使用这些数据,可以用于离线 ETL、实时计算、BI 报表分析等场景。

对于秒级时效性诉求的数据,会走高优 Kafka 链路,提供给在线服务使用,这种占比就比较小了。北极星事件管理平台和元数据管理,负责管理整个行为事件埋点的生命周期、分发规则等等。

平台控制从边缘上报开始,进行规则分流,业务隔离,提升隔离性。当数据落入业务 Hudi 表后,进行 Clustering,对业务数据进行排序和索引。通过引擎层,进行文件级别/数据块级别的 Dataskip,减少实际读取数据量的 IO 开销。用户通过 Hive View 读取数据,平台通过给用户的 View 增加有权限的行为事件,达到行为事件级别权限管理。比如 a 部门的同学,在使用 b 部门的行为事件时,在 a 部门的 View 上增加一个 b 部门行为事件的 ID 即可。在提交 SQL 进行检查时,会进行行为事件级别的权限校验。增量传输清洗 Hudi 表时,Hudi 表支持增量消费,可以达到分钟级的时效性。下游实时任务可以接在这个 View 后面进行使用,从而达到流批统一。

在 Hudi 侧的优化方面,因为流量数据入湖不更新,所以我们采用了 no index 模式,去掉 bucket assign 等过程,从而提升写入速度。与此同时,Flink 增量 Clustering 下游的 ETL 延迟,无明显增加。经过 Clustering 之后,数据开始变得有序。索引记录了行为事件的分布情况,可以通过条件查询,进行文件级别和数据块级别的过滤。除此之外,Flink、Spark 等引擎也支持 Hudi 表的谓词下推,进一步提升了效率。在 Flink 对于 View 的支持方面,View 下游可以再去定义 Watermark,也可以在 View 上定义 with 属性等等。

通过架构调整和 Hudi 能力的结合,我们增强了埋点管理的隔离性、时效性,也节约了资源。

8

接下来,讲一讲 BI 实时报表场景。在原先架构下,流量数据和 DB 数据导入数仓后,会进行 Join 打宽,聚合后将原来的计算结果输出到 MySQL 之类的存储。BI 报表会直接对接 MySQL,进行数据展示。另外一条离线链路,会进行 T-1 的修数兜底。

原先架构的痛点在于,实时和离线两条链路重复建设,计算存储成本高,开发运维成本高,口径解释成本高。Kafka 数据需要复制其他存储,才能进行查询,可观测性比较弱。除此之外,Kafka 链路难做数据修复。Kafka 链路很难确定修复起点,通常使用 T-1 的方式进行修复。存在数据出仓孤岛等问题。

9

BI 实时报表场景一般没有秒级的时效性诉求,分钟级的时效性就可以满足诉求。我们通过 Hudi 替换 Kafka,同时满足了实时和离线的诉求,实现流批统一,达到降本,数据口径得到统一。

Hudi 相比 Kafka,可以直接查询 Hudi 中的数据,比 Kafka 更容易、更方便的进行告警。

比如在 Kafka 上对比七天前的数据,做一个阈值告警。需要消费七天前的数据以及当前数据,进行计算以后,再进行告警。整个过程比较复杂。Hudi 的查询 SQL 和离线的查询 SQL 是一致的。对于 DQC 系统来说,实时 DQC 和离线 DQC 的方案是统一的,开发成本较低。对于有秒级时效性要求的任务,还需要走 Kafka 链路。

除此之外,数据可以做到不出仓。BI 报表可以直接查询,对接查询的 Hudi 表,进行数据展示。

10

在实际使用过程中,也存在一些问题。直接对 Hudi 的明细表进行聚合查询时,查询时间过长,存在读放大的问题。

假设实时 DQC 每五分钟统计近一个小时的数据,进行数据条数监控。五分钟会计算近一个小时的数据,下一个五分钟再计算近一个小时的数据。在滑动窗口的过程中,中间的数据会被计算好多次,存在比较严重的 IO 放大。

除此之外,以 BI 报表场景为例。假设展示一个 DAU 曲线,每个点都是历史数据的累计值。1 点的数据就是 0 点~1 点数据的累计值。2 点的数据就是 0 点~2 点数据的累计值。在界面展示时,就需要计算 n 个点,每个点都会进行重复的计算,导致查询的时间较长,存在读放大的问题。

除此之外,开发运维的成本较高。用户会在一个 BI 面板的界面,展示多个指标。可能是从同一张 Hudi 的明细表里,出的不同维度的数据。如果出十个指标,就需要开发和运维十个实时任务,开发和运维成本较高,可靠性较低。当一个实时任务出现异常,这个面板就会缺失一部分的指标。

我们提出的优化方案是,通过 Flink+Hudi 构建 Projection 物化视图。通过 Flink State 状态,仅需摄取增量数据计算即可,避免读放大问题。将查询结果提前计算出来,直接查询结果数据,来达到加速查询的效果。

具体的流程是,用户提交一个查询 SQL 给 Excalibur Server,进行 SQL 解析。在解析过程中,会提交 Projection 创建,提交一个 Stream 任务,然后增量读取原始表中的数据,进行物化计算以后,再存储到 Projection 物化表中。当查询 SQL 命中物化规则时,就会改写查询,直接查询结果表,达到加速的效果。

11

通过扩展 Flink Batch SQL 的解析过程,查询时候会加载物化规则以及 Projection 的元数据。并且判断物化表当前 Watermark 物化进度。如果满足要求,则改写查询 Projection 物化表。

12

我们参考 Calcite 的物化规则,增加了 TVF 的语法⽀持。

支持 Projection 的创建,用户提交批查询,可以通过在 select 语句上增加 hint,提示查询引擎,该查询会进行复用。引擎会对该查询创建 Projection。

支持 Flink SQL 的 Projection DDL 语法以及 SQL 查询改写的规则。当用户提交批查询时,如果有对应的 Projection,就能进行改写。改写后可以直接使用 Projection 的结果,大大加速查询,能够做到秒级甚至毫秒级的响应。

Projection 的改写降级,是根据 Watermark 等指标,屏蔽掉 Projection 实时任务的延迟和失败等问题,保障了查询结果的可靠性。我们在 Hudi Meta 增加了 Watermark 数据处理进度信息。在数据写入的过程中,我们会在 Commit Meta 中记录物化进度。在执行物化规则匹配时,如果落后当前时间太多,就会拒绝当前 Projection 改写,直接降级到原表,进行数据查询。

在 select 语句上增加 hint 创建,通过物化的能力达到加速查询的效果。不但解决了读放大的问题,通过自动降级,也减少了用户的开发和运维成本。

在未来,我们会围绕 Projection 效率进行优化。回收长期无法命中的 Projection。合并多个维度相同的 Projection,降低 Projection 的计算成本。除此之外,我们会和指标系统对接,通过指标系统缓存加速查询,满足一些高 QPS 场景的流计算。

13

之前在流式写入时,使用 Flink SQL,批量修数使用 Spark SQL,仍然需要开发和运维两套 SQL。在 Hudi 实时数据库的方案下,我们参考了离线修数方案。

历史分区重跑,使用 Flink Batch Overwrite,与离线修数方式是一致的。

当前分区重跑,我们使用 Flink Stream Overwrite 的方式。比如需要将当前的分区数据进行清空删除,然后再进行写入。因为它是 no index 的方式去写入,所以它没有没有办法通过 update 的形式覆盖之前写入的数据。我们通过扩展 Hudi Catalog,支持 Flink SQL 的方式,alter table drop partition 操作删除分区及数据。然后通过重新流式写入的方式,实现了 Flink Stream Overwrite。

当工具支持级联重跑任务后,我们就可以从最源端的 ODS 层级,修复到最末端,不再需要开发运维 Spark T-1 修复任务。真正达到了流批一体的效果。

三、基建优化

14

在基建优化方面,我们对 Table Service 进行优化。由于 Compaction、Clustering 等任务耗资源较多,和写入任务相互影响,导致写入的性能下降。我们通过拆分 Table Service,通过独立资源运行,来解决这个问题。

我们将 Compaction plan、Clustering plan 执行计划的生成过程,放在写入任务中,将真正执行 Compaction、Clustering 的 task 独立进程,进行执行。避免写入和 Table Service 相互影响,提高了写入性能。与此同时,支持了动态调整 Compaction plan 的策略,通过调整频次,减少不必要的 IO。

15

Hudi Manager 用于规模化的管理托管,包括表服务托管,比如 Compaction、Clustering、Projection 任务托管独立运行,资源隔离,提升写入稳定性。支持自动拉起,可批可流。

在表管理方面,是在建表时构建 Hudi 的源数据,取代第一次写入时构建的源数据,避免重要参数遗漏。比如将数据批量导入到 Hudi 时,不关心 preCombine 比较字段,初始化好了表的元数据。流式写入时,不会修改表的元数据。该匹配字段的缺失,会导致无法得到正确的合并结果。

在策略配置方面,用户选择 OLAP、ETL 场景时,可以自动配置不同的表服务的执行间隔。比如下游的 ETL 场景是天级别调度。相比 OLAP 场景,我们可以使用更低的 Compaction 频次。

16

如上图所示,我们在实际使用的过程中,发现和解决了不少数据质量、稳定性、性能方面的问题,并做了功能性的增强,贡献给社区。涵盖了 Sink、Compaction、Clustering、Common 包、Source、Catalog 等若干方面。前面场景中提到的一些能力,我们陆续也会以 PR 或者 RFC 的形式推给社区。

四、总结和展望

17

我们在流量数据入湖、DB 数据入湖场景、报表场景以及流批一体,都做了一系列的实践。

接下来,我们还会深入数仓领域,探索通过物化任务减少数仓分层,通过分层任务的分析、诊断、优化,进行智能分层。使业务同学更加专注于数据的使用,减轻数仓分层的工作量,向湖仓一体的方向演进。增强增量化计算,支持围绕 Hudi 的 Join ETL,在存储层优化 Join 的逻辑。探索 Hudi 在 AI 领域的运用。

在内核方面,我们后续会增强 Hudi Meta Store,统一元数据管理;增强 Table Service;增强 Hudi Join 的列拼接能力。

点击查看原文视频 & 演讲PPT


更多内容

img


活动推荐

阿里云基于 Apache Flink 构建的企业级产品-实时计算 Flink 版现开启活动:
0 元试用 实时计算 Flink 版(5000CU*小时,3 个月内)
了解活动详情:https://free.aliyun.com/?pipCode=sc

image.png

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
|
3月前
|
数据采集 存储 分布式计算
构建智能数据湖:DataWorks助力企业实现数据驱动转型
【8月更文第25天】本文将详细介绍如何利用阿里巴巴云的DataWorks平台构建一个智能、灵活、可扩展的数据湖存储体系,以帮助企业实现数据驱动的业务转型。我们将通过具体的案例和技术实践来展示DataWorks如何集成各种数据源,并通过数据湖进行高级分析和挖掘,最终基于数据洞察驱动业务增长和创新。
243 53
|
4月前
|
存储 搜索推荐 数据建模
阿里巴巴大数据实践之数据建模:构建企业级数据湖
阿里巴巴通过构建高效的数据湖和实施先进的数据建模策略,实现了数据驱动的业务增长。这些实践不仅提升了内部运营效率,也为客户提供了更好的服务体验。随着数据量的不断增长和技术的不断创新,阿里巴巴将持续优化其数据建模方法,以适应未来的变化和发展。
|
6月前
|
存储 人工智能 运维
数据湖建设实践:使用AWS S3与LakeFormation构建灵活数据存储
【4月更文挑战第8天】本文分享了使用AWS S3和LakeFormation构建数据湖的经验。选择S3作为数据湖存储,因其无限容量、高可用性和持久性,以及与多种系统的兼容性。LakeFormation则负责数据治理和权限管理,包括元数据管理、简化数据接入、细粒度权限控制和审计。通过这种方式,团队实现了敏捷开发、成本效益和数据安全。未来,数据湖将融合更多智能化元素,如AI和ML,以提升效能和体验。此实践为数据驱动决策和企业数字化转型提供了有力支持。
380 2
|
6月前
|
消息中间件 监控 Kafka
Yotpo构建零延迟数据湖实践
Yotpo构建零延迟数据湖实践
127 0
|
6月前
|
消息中间件 存储 数据采集
在线房产公司Zillow数据迁移至数据湖实践
在线房产公司Zillow数据迁移至数据湖实践
103 0
|
6月前
|
存储 分布式计算 关系型数据库
初创电商公司Drop的数据湖实践
初创电商公司Drop的数据湖实践
89 0
|
6月前
|
存储 SQL 分布式计算
使用Apache Hudi构建大规模、事务性数据湖
使用Apache Hudi构建大规模、事务性数据湖
129 0
|
6月前
|
存储 SQL 分布式计算
Apache Hudi在Linkflow构建实时数据湖的生产实践
Apache Hudi在Linkflow构建实时数据湖的生产实践
86 0
|
6月前
|
存储 运维 监控
飞书深诺基于Flink+Hudi+Hologres的实时数据湖建设实践
通过对各个业务线实时需求的调研了解到,当前实时数据处理场景是各个业务线基于Java服务独自处理的。各个业务线实时能力不能复用且存在计算资源的扩展性问题,而且实时处理的时效已不能满足业务需求。鉴于当前大数据团队数据架构主要解决离线场景,无法承接更多实时业务,因此我们需要重新设计整合,从架构合理性,复用性以及开发运维成本出发,建设一套通用的大数据实时数仓链路。本次实时数仓建设将以游戏运营业务为典型场景进行方案设计,综合业务时效性、资源成本和数仓开发运维成本等考虑,我们最终决定基于Flink + Hudi + Hologres来构建阿里云云原生实时湖仓,并在此文中探讨实时数据架构的具体落地实践。
飞书深诺基于Flink+Hudi+Hologres的实时数据湖建设实践
|
6月前
|
存储 SQL 数据管理
字节跳动基于Apache Hudi构建实时数据湖平台实践
字节跳动基于Apache Hudi构建实时数据湖平台实践
294 0