开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

一般公司的flink job有没有进程进行守护?有专门的工具或者是自己写脚本?这种情况针对flink

一般公司的flink job有没有进程进行守护?有专门的工具或者是自己写脚本?这种情况针对flink job超过重试次数后退出的情况 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。 点击这里欢迎加入感兴趣的技术领域群。

展开
收起
黄一刀 2019-11-19 11:40:51 2104 0
2 条回答
写回答
取消 提交回答
  • 我们现在是自己写的shell脚本:发现某个flink服务是否运行、找到其application id并杀掉job、找到其checkpiont的metadata路径、启动服务、检测是否成功并重试、退出

    2019-11-19 14:26:16
    赞同 展开评论 打赏
  • 超出就会停止了,既然这个次数是人为控制的,那么就说明确实不需要一直重试呀,那为何你还要去守护这个进程?如果你非得要一直让作业运行,可以不设置重启策略,开启 checkpoint 的情况下默认会一直重试的

    2019-11-19 11:41:22
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 热门讨论

    热门文章

    相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载