开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

通过FlinkCDC同步MySQL数据到Hudi中间出现这个问题什么原因?

通过FlinkCDC同步MySQL数据到Hudi,中间通过UDF将latin1编码的varchar类型数据转换成utf8编码,发现在SinkMaterializer[3] -> row_data_to_hoodie_record这一步的full checkpoint data size越来越大可能是什么原因导致的呢?
c7c709feb5f4808c793822f4d448e082.png

展开
收起
小易01 2023-08-16 01:10:18 113 0
1 条回答
写回答
取消 提交回答
  • 意中人就是我呀!

    结果表的pk和 query 推导出来的pk不一致,可以用explain plan_advice检查下。此答案整理至钉群“Flink CDC 社区“。

    2023-08-16 08:58:41
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
搭建电商项目架构连接MySQL 立即下载
搭建4层电商项目架构,实战连接MySQL 立即下载
PolarDB MySQL引擎重磅功能及产品能力盛大发布 立即下载

相关镜像