开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink CDC一个场景中需要关联十几张表并聚合,每次变更都会更新到Kafka很多数据?

Flink CDC一个场景中需要关联十几张表并聚合,我现在使用了upsertkafaka将这个大融合切成多个,但是现在问题是这样每个新任务基于上次的upsert Kafka数据量非常大,每次变更都会更新到Kafka很多数据?有没有更好的方式比如结合ice格式的流融合?es8 table connector pls不想走中转感觉走upsertKafka会变慢?

展开
收起
真的很搞笑 2023-12-11 13:20:22 76 0
1 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    您可以考虑使用Flink CDC的流融合功能来解决这个问题。流融合可以将多个表的数据进行关联和聚合,并将结果写入到目标表中。相比于将数据写入到Kafka中再进行处理,流融合可以减少数据传输和处理的开销,提高系统的性能。

    对于Iceberg格式的流融合,您可以使用Flink CDC的Iceberg Connector来实现。该连接器支持将数据写入到Iceberg表中,并提供了一些高级功能,如数据分区、数据文件管理和版本控制等。通过使用Iceberg Connector,您可以将多个表的数据进行关联和聚合,并将结果写入到Iceberg表中。

    2023-12-12 17:36:11
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 热门讨论

    热门文章

    相关电子书

    更多
    Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
    MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
    消息队列kafka介绍 立即下载