KubeVela中clean-jobs里只会删除默认集群的job,如何传入cluster参数?

KubeVela中clean-jobs里只会删除默认集群的job,如何传入cluster参数,可以指定集群删除job,我看cue里没有。

展开
收起
十一0204 2023-10-27 12:35:40 91 分享 版权
2 条回答
写回答
取消 提交回答
  • 在KubeVela中,clean-jobs命令默认会清理所有集群的job,包括默认集群和其他已注册的集群。如果你想指定清理某个特定的集群,你可以在命令行中传入cluster参数。

    例如,如果你想清理名为"my-cluster"的集群的所有job,你可以使用以下命令:

    vela clean-jobs --cluster my-cluster
    

    在这个命令中,"--cluster my-cluster"就是cluster参数,它指定了要清理的集群。

    请注意,cluster参数必须在clean-jobs命令之后,并且必须以"--cluster"开头。

    2023-10-30 16:28:42
    赞同 展开评论
  • 参考 k8s控制器之job--第四弹Job的终止和清理https://blog.csdn.net/Tiger_lin1/article/details/131352590
    当 Job 完成后:

    将不会创建新的 Pod
    已经创建的 Pod 也不会被清理掉。此时,您仍然可以继续查看已结束 Pod 的日志,以检查 errors/warnings 或者其他诊断用的日志输出
    Job 对象也仍然保留着,以便您可以查看该 Job 的状态
    由用户决定是否删除已完成的 Job 及其 Pod
    可通过 kubectl 命令删除 Job,例如: kubectl delete jobs/pi
    删除 Job 对象时,由该 Job 创建的 Pod 也将一并被删除
    Job 通常会顺利的执行下去,但是在如下情况可能会非正常终止:

    某一个 Pod 执行失败(且 restartPolicy=Never)
    或者某个容器执行出错(且restartPolicy=OnFailure)
    此时,Job 按照 处理Pod和容器的失败中 .spec.bakcoffLimit 描述的方式进行处理
    一旦重试次数达到了 .spec.backoffLimit 中的值,Job 将被标记为失败,且尤其创建的所有 Pod 将被终止
    Job 中设置了 .spec.activeDeadlineSeconds。该字段限定了 Job 对象在集群中的存活时长,一旦达到 .spec.activeDeadlineSeconds 指定的时长,该 Job 创建的所有的 Pod 都将被终止,Job 的 Status 将变为 type:Failed 、 reason: DeadlineExceeded
    Job 中 .spec.activeDeadlineSeconds 字段的优先级高于 .spec.backoffLimit。因此,正在重试失败 Pod 的 Job,在达到 .spec.activeDeadlineSecondes 时,将立刻停止重试,即使 .spec.backoffLimit 还未达到。

    2023-10-29 07:52:35
    赞同 展开评论
问答地址:

阿里云拥有国内全面的云原生产品技术以及大规模的云原生应用实践,通过全面容器化、核心技术互联网化、应用 Serverless 化三大范式,助力制造业企业高效上云,实现系统稳定、应用敏捷智能。拥抱云原生,让创新无处不在。

还有其他疑问?
咨询AI助理