开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink CDC在集群里面run一个oracle cdc的job,是不是跟什么配置有关系?

Flink CDC在集群里面run一个oracle cdc的job,提示chekpoint保存不了,还没有到启动监听数据源这一步,但用idea调试运行又可以采集,是不是跟什么配置有关系?image.png
我单独用idea来测试是可以的,数据少一点是可以跑,我这个表数据40多万就不行,这个需要配置什么,检查点间隔配置大一点吗?

展开
收起
cuicuicuic 2023-11-16 07:54:03 27 0
3 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    是的,checkpoint 保存不了可能与 Flink 的配置有关。以下是一些可能导致 checkpoint 保存失败的原因:

    1. 缺少或错误的 checkpoint 目录:Flink 需要一个目录来保存 checkpoint 文件。如果缺少这个目录或者目录路径不正确,可能会导致 checkpoint 保存失败。
    2. checkpoint 时间间隔太短:checkpoint 是一项耗时的操作,如果时间间隔设置得太短,可能会导致频繁的 checkpoint 操作,从而影响任务性能和稳定性。
    3. 硬盘空间不足:checkpoint 文件需要存储在硬盘上,如果硬盘空间不足,可能会导致 checkpoint 保存失败。
    4. 并发度设置不当:并发度设置不当可能会导致任务负载不均,从而影响任务性能和稳定性。
    2023-11-16 13:30:59
    赞同 展开评论 打赏
  • 这个问题可能是由于Flink集群的环境配置或者资源限制导致的。以下是一些可能的解决方案:

    1. 检查Flink集群的环境配置,确保所有必要的库和依赖都已经正确安装。

    2. 检查Flink集群的资源限制,确保有足够的内存和CPU资源来运行你的Job。

    3. 检查Flink集群的网络配置,确保所有的节点都可以正常地访问Oracle数据库。

    4. 检查Flink集群的日志,看是否有其他的错误信息。

    5. 尝试增加Flink集群的并行度,看是否可以解决这个问题。

    2023-11-16 10:20:24
    赞同 展开评论 打赏
  • 数据量太大了,执行检查点失败,此回答整理自钉群“Flink CDC 社区”

    2023-11-16 08:36:00
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 热门讨论

    热门文章

    相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载

    相关镜像