开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

请问。我现在服务启动,初始化数据的时候,从invoke过来,我sink对获取的json插入到目标库(

请问。我现在服务启动,初始化数据的时候,从invoke过来,我sink对获取的json插入到目标库(批量插入 5000 一批)。源表1000w行数据,到400万行的时候就报错(exceeded checkpoint tolerable failure)。sink并行度=50。 经过多次测试,(以2000一批,一万一批,结果一致)。我本来怀疑是sink的连接管理有问题。我对于sink中的每一步都单独给了一个连接池,job启动失败也没有说是哪个sink失败。所以我现在觉得是整个初始化过程,flink持续读来源表(1000w),锁表而引起的一系列问题。 各位有什么好的意见和建议吗?

展开
收起
游客3oewgrzrf6o5c 2022-07-22 13:46:16 670 0
1 条回答
写回答
取消 提交回答
  • 应该不是source的原因,持续读不应该会锁表,sink并行度50,你看了数据分布情况么,我感觉是你可能就一两个并行度有数据,然后数据积压checkpoint超时。(此答案整理自Flink CDC 社区)

    2022-07-22 14:37:35
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
开源广进-用Service Catalog构造K8S服务能力 立即下载
Apache Flink 流式应用中状态的数据结构定义升级 立即下载
低代码开发师(初级)实战教程 立即下载