开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink CDC调整了binlog保存时间后运行任务。又出现了报错。如下图。能否帮忙看一下呀?

Flink CDC调整了binlog保存时间后运行任务。又出现了报错。如下图。查看日志似乎是找不到checkpoint了。能否帮忙看一下呀?。下面是提交的运行语句,报错图和日志:./bin/flink run-application --target kubernetes-application -Dkubernetes.cluster-id=cluster231205aa -Dkubernetes.rest-service.exposed.type=NodePort -Dkubernetes.namespace=flink -Dkubernetes.jobmanager.service-account=flink-service-account -Dkubernetes.container.image.ref=swr.cn-north-4.myhuaweicloud.com/commons/toll_pro_02:1.17.1 -Dkubernetes.container.image.pull-secrets=regcred3 -Dtaskmanager.memory.process.size=7000m -Dtaskmanager.numberOfTaskSlots=1 --pyModule ls_card_blacklist_id_32 --pyFiles /opt/python_codes/ls_card_blacklist_id_32.pyimage.pngimage.png

展开
收起
真的很搞笑 2023-12-10 20:41:15 35 0
1 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看

    从您提供的信息来看,Flink CDC在调整binlog保存时间后运行任务时出现了报错。报错信息显示找不到checkpoint。这可能是由于以下原因导致的:

    1. 检查您的Flink配置文件(如flink-conf.yaml),确保binlog的保存路径和文件名设置正确。例如:
    execution.checkpointing.interval: 5000
    execution.checkpointing.min-pause: 5000
    state.backend: fs
    state.backend.fs.checkpointdir: hdfs:///user/flink/checkpoints/
    
    1. 确保您的Flink集群中有足够的磁盘空间来存储checkpoint文件。您可以使用df -h命令查看磁盘空间使用情况。

    2. 检查您的Flink日志文件(如flink-*.log),看是否有关于找不到checkpoint的错误信息。这有助于进一步诊断问题。

    3. 如果问题仍然存在,您可以尝试在Flink配置文件中增加checkpoint的超时时间。例如:

    execution.checkpointing.timeout: 600000
    
    2023-12-11 16:49:53
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载