KubeVela中clean-jobs里只会删除默认集群的job,如何传入cluster参数,可以指定集群删除job,我看cue里没有。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
在KubeVela中,clean-jobs命令默认会清理所有集群的job,包括默认集群和其他已注册的集群。如果你想指定清理某个特定的集群,你可以在命令行中传入cluster参数。
例如,如果你想清理名为"my-cluster"的集群的所有job,你可以使用以下命令:
vela clean-jobs --cluster my-cluster
在这个命令中,"--cluster my-cluster"就是cluster参数,它指定了要清理的集群。
请注意,cluster参数必须在clean-jobs命令之后,并且必须以"--cluster"开头。
参考 k8s控制器之job--第四弹Job的终止和清理https://blog.csdn.net/Tiger_lin1/article/details/131352590
当 Job 完成后:
将不会创建新的 Pod
已经创建的 Pod 也不会被清理掉。此时,您仍然可以继续查看已结束 Pod 的日志,以检查 errors/warnings 或者其他诊断用的日志输出
Job 对象也仍然保留着,以便您可以查看该 Job 的状态
由用户决定是否删除已完成的 Job 及其 Pod
可通过 kubectl 命令删除 Job,例如: kubectl delete jobs/pi
删除 Job 对象时,由该 Job 创建的 Pod 也将一并被删除
Job 通常会顺利的执行下去,但是在如下情况可能会非正常终止:
某一个 Pod 执行失败(且 restartPolicy=Never)
或者某个容器执行出错(且restartPolicy=OnFailure)
此时,Job 按照 处理Pod和容器的失败中 .spec.bakcoffLimit 描述的方式进行处理
一旦重试次数达到了 .spec.backoffLimit 中的值,Job 将被标记为失败,且尤其创建的所有 Pod 将被终止
Job 中设置了 .spec.activeDeadlineSeconds。该字段限定了 Job 对象在集群中的存活时长,一旦达到 .spec.activeDeadlineSeconds 指定的时长,该 Job 创建的所有的 Pod 都将被终止,Job 的 Status 将变为 type:Failed 、 reason: DeadlineExceeded
Job 中 .spec.activeDeadlineSeconds 字段的优先级高于 .spec.backoffLimit。因此,正在重试失败 Pod 的 Job,在达到 .spec.activeDeadlineSecondes 时,将立刻停止重试,即使 .spec.backoffLimit 还未达到。
阿里云拥有国内全面的云原生产品技术以及大规模的云原生应用实践,通过全面容器化、核心技术互联网化、应用 Serverless 化三大范式,助力制造业企业高效上云,实现系统稳定、应用敏捷智能。拥抱云原生,让创新无处不在。