请问。我现在服务启动,初始化数据的时候,从invoke过来,我sink对获取的json插入到目标库(

请问。我现在服务启动,初始化数据的时候,从invoke过来,我sink对获取的json插入到目标库(批量插入 5000 一批)。源表1000w行数据,到400万行的时候就报错(exceeded checkpoint tolerable failure)。sink并行度=50。 经过多次测试,(以2000一批,一万一批,结果一致)。我本来怀疑是sink的连接管理有问题。我对于sink中的每一步都单独给了一个连接池,job启动失败也没有说是哪个sink失败。所以我现在觉得是整个初始化过程,flink持续读来源表(1000w),锁表而引起的一系列问题。 各位有什么好的意见和建议吗?

展开
收起
游客3oewgrzrf6o5c 2022-07-22 13:46:16 715 分享 版权
1 条回答
写回答
取消 提交回答
  • 应该不是source的原因,持续读不应该会锁表,sink并行度50,你看了数据分布情况么,我感觉是你可能就一两个并行度有数据,然后数据积压checkpoint超时。(此答案整理自Flink CDC 社区)

    2022-07-22 14:37:35
    赞同 展开评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

收录在圈子:
实时计算 Flink 版(Alibaba Cloud Realtime Compute for Apache Flink,Powered by Ververica)是阿里云基于 Apache Flink 构建的企业级、高性能实时大数据处理系统,由 Apache Flink 创始团队官方出品,拥有全球统一商业化品牌,完全兼容开源 Flink API,提供丰富的企业级增值功能。
还有其他疑问?
咨询AI助理