开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink这个mysql-cdc到hudi的,为啥一直没有数据同步?

Flink这个mysql-cdc到hudi的,为啥一直没有数据同步,source正常情况下每秒都有上千条数据?sql作业lQLPJw8l7xYOK4_Mkc0EkbDscLmgWA0n0gVwjFgAXg8A_1169_145.png
lQLPJwz8DTN8fM_NAkfNAkyw2rRe_TI0T_kFcIy5bVdcAA_588_583.png

展开
收起
三分钟热度的鱼 2023-12-28 16:46:01 92 0
1 条回答
写回答
取消 提交回答
  • 十分耕耘,一定会有一分收获!

    楼主你好,根据你的报错提示,个人感觉是数据源配置问题,需要确保正确配置了MySQL CDC的数据源信息,包括主机名、端口号、用户名、密码等,以及检查MySQL CDC的数据源是否正常,是否有数据产生。

    还有可能是Flink作业配置问题,需要检查你的Flink作业的配置,包括CDC Source的相关配置和Hudi Sink的配置,确保CDC Source正确读取到了MySQL CDC的数据,并将数据正确传递给Hudi Sink。

    2023-12-29 19:13:17
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    One Box: 解读事务与分析一体化数据库 HybridDB for MySQL 立即下载
    One Box:解读事务与分析一体化数据库HybridDB for MySQL 立即下载
    MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载

    相关镜像