开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

各位,Flink CDC 中俩个亿数据做实时聚合有什么好的方法推荐下,目前用mongo不太友好?

各位,Flink CDC 中俩个亿数据做实时聚合有什么好的方法推荐下,目前用mongo不太友好?

展开
收起
真的很搞笑 2023-05-09 14:05:11 143 0
2 条回答
写回答
取消 提交回答
  • 存在即是合理

    也可以试试Apache Kafka,使用Kafka作为数据流管道,可以实现实时聚合。Flink CDC提供了与Kafka的集成,可以使用Flink CDC中的Kafka源和Sink连接器将数据从MySQL、PostgreSQL等数据库同步到Kafka中,然后使用Flink的流处理引擎对Kafka中的数据进行实时聚合。

    总之,选择哪种方法取决于具体需求和技术栈。如果已经熟悉了其中一种方法,那么使用它来实现实时聚合可能是最好的选择。如果还没有确定最佳方案,可以考虑使用Flink CDC和Kafka等工具来实现快速、可靠的数据传输和实时聚合。

    2023-05-09 16:51:10
    赞同 展开评论 打赏
  • 感觉. Starrocks. Doris. tidb可以参考一下。没有join的话ck应该是最优解,此回答整理自钉群“Flink CDC 社区”

    2023-05-09 14:22:36
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载