一般公司的flink job有没有进程进行守护?有专门的工具或者是自己写脚本?这种情况针对flink

一般公司的flink job有没有进程进行守护?有专门的工具或者是自己写脚本?这种情况针对flink job超过重试次数后退出的情况 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。 点击这里欢迎加入感兴趣的技术领域群。

展开
收起
黄一刀 2019-11-19 11:40:51 2113 分享
分享
版权
举报
2 条回答
写回答
取消 提交回答
  • 我们现在是自己写的shell脚本:发现某个flink服务是否运行、找到其application id并杀掉job、找到其checkpiont的metadata路径、启动服务、检测是否成功并重试、退出

    2019-11-19 14:26:16 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论
  • 超出就会停止了,既然这个次数是人为控制的,那么就说明确实不需要一直重试呀,那为何你还要去守护这个进程?如果你非得要一直让作业运行,可以不设置重启策略,开启 checkpoint 的情况下默认会一直重试的

    2019-11-19 11:41:22 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

收录在圈子:
实时计算 Flink 版(Alibaba Cloud Realtime Compute for Apache Flink,Powered by Ververica)是阿里云基于 Apache Flink 构建的企业级、高性能实时大数据处理系统,由 Apache Flink 创始团队官方出品,拥有全球统一商业化品牌,完全兼容开源 Flink API,提供丰富的企业级增值功能。
还有其他疑问?
咨询AI助理
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等