如何可视化编写和编排你的k8s任务

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 阿里任务调度SchedulerX和云原生结合,重磅推出可视化k8s任务,针对脚本使用者,屏蔽了容器服务的细节,不用构建镜像就可以让不熟悉容器的同学(比如运维和运营同学)玩转k8s Job,受益容器服务带来的降本增效福利。针对容器使用者,SchedulerX不但完全兼容原生的k8s Job,还能支持历史执行记录、日志服务、重跑任务、报警监控、可视化任务编排等能力,为企业级应用保驾护航

简介

K8s Job是Kubernetes中的一种资源,用来处理短周期的Pod,相当于一次性任务,跑完就会把Pod销毁,不会一直占用资源,可以节省成本,提高资源利用率。


阿里任务调度SchedulerX和云原生结合,重磅推出可视化k8s任务,针对脚本使用者,屏蔽了容器服务的细节,不用构建镜像就可以让不熟悉容器的同学(比如运维和运营同学)玩转k8s Job,受益容器服务带来的降本增效福利。针对容器使用者,SchedulerX不但完全兼容原生的k8s Job,还能支持历史执行记录、日志服务、重跑任务、报警监控、可视化任务编排等能力,为企业级应用保驾护航。架构图如下:


特性一:快速开发k8s可视化脚本任务

Kubernetes的Job,常见用来做离线数据处理和运维工作(比如每天凌晨2点把mysql数据同步到大数据平台,每隔1小时更新一次redis缓存等),一般以脚本实现居多。这里以一个简单的场景举例子,来对比两种方案的差异。


Kubernetes原生解决方案

K8s调度的最小单位是Pod,想跑脚本任务,需要提前把脚本打包到镜像里,然后在YAML文件中配置脚本命令,下面以通过python脚本查询数据库为例子:

  1. 编写python脚本demo.py
#!/usr/bin/python# -*- coding: UTF-8 -*-importMySQLdb# 打开数据库连接db=MySQLdb.connect("localhost", "testuser", "test123", "TESTDB", charset='utf8' )
# 使用cursor()方法获取操作游标 cursor=db.cursor()
# SQL 查询语句sql="SELECT * FROM EMPLOYEE \WHERE INCOME > %s"% (1000)
try:
# 执行SQL语句cursor.execute(sql)
# 获取所有记录列表results=cursor.fetchall()
forrowinresults:
fname=row[0]
lname=row[1]
age=row[2]
sex=row[3]
income=row[4]
# 打印结果print"fname=%s,lname=%s,age=%s,sex=%s,income=%s"% \
        (fname, lname, age, sex, income )
except:
print"Error: unable to fetch data"# 关闭数据库连接db.close()
  1. 编写Dockerfile
FROM python:3
WORKDIR /usr/src/app
COPY requirements.txt ./
RUN pip install --no-cache-dir -r requirements.txt
COPY demo.py /root/demo.py
CMD [ "python", "/root/demo.py" ]
  1. 制作docker镜像,推到镜像仓库中
docker build -t registry.cn-beijing.aliyuncs.com/demo/python:1.0.0 .
docker push registry.cn-beijing.aliyuncs.com/demo/python:1.0.0
  1. 编写k8s Job的YAML文件,image选择第3步制作的镜像,command的命令为执行脚本
apiVersion: batch/v1
kind: Job
metadata:  name: demo-python
spec:  template:    spec:      containers:      - name: demo-python
        image: registry.cn-beijing.aliyuncs.com/demo/python:1.0.0        command: ["python","/root/demo.py"]      restartPolicy: Never
  backoffLimit: 4

我们看到要在容器服务中跑脚本,需要这么多步骤,如果要修改脚本,还需要重新构建镜像和重新发布k8s Job,非常麻烦。


阿里云解决方案

阿里任务调度SchedulerX结合云原生技术,提出了一套可视化的脚本任务解决方案,通过任务调度系统来管理脚本,直接在线编写脚本,不需要构建镜像,就可以将脚本以Pod的方式在用户的k8s集群当中运行起来,使用非常方便,如下图:


  1. 在SchedulerX任务管理新建一个k8s任务,资源类型选择Python-Script(当前支持shell/python/php/nodejs四种脚本类型)

  1. 点击运行一次,在kubernetes集群中可以看到pod启动,pod名称为schedulerx-python-{JobId}

  1. 在SchedulerX控制台也可以看到历史执行记录

  1. 在SchedulerX控制台可以看到Pod运行的日志


下面通过一个表格更方便的看到两个方案的差异

Kubernetes原生解决方案

阿里云解决方案

脚本管理

不支持

支持,通过SchedulerX控制台可以进行脚本管理

开发效率

慢,每次修改脚本都需要重新构建镜像

快,在线修改脚本,不需要构建镜像,自动部署

学习成本

高,需要学习docker和kubernetes等容器相关知识

低,不需要容器相关知识,会写脚本就行

历史记录

最近3次

最近100次

日志

最近3次

最近2周

报警

不支持

支持

  • 报警类型:任务失败、超时等
  • 报警通道:短信、电话、webhook、邮件等


特性二:完全兼容原生K8s Job

SchedulerX不但能够快速开发k8s脚本任务,屏蔽容器服务的细节,给不熟悉容器服务的同学带来福音,同时还能托管原生k8s Job。


原生自带的Job方案

Job

以官方提供的Job为例

  1. 编写YAML文件pi.yaml,故意写一个错误,bpi(-1)是非法的
apiVersion: batch/v1
kind: Job
metadata:  name: pi
spec:  template:    spec:      containers:      - name: pi
        image: perl:5.34        command: ["perl","-Mbignum=bpi","-wle","print bpi(-1)"]      restartPolicy: Never
  backoffLimit: 4
  1. 在k8s集群中运行该Job,并查看Pod的状态和日志


K8s原生的Job不支持重跑,修改完Job后想要重跑,需要先删除,再重新apply,非常麻烦。


CronJob

以官方提供的CronJob为例

  1. 编写hello.yaml
apiVersion: batch/v1
kind: CronJob
metadata:  name: hello
spec:  schedule: "* * * * *"  jobTemplate:    spec:      template:        spec:          containers:          - name: hello
            image: perl:5.34            command: ["perl","-Mbignum=bpi","-wle","print bpi(100)"]          restartPolicy: OnFailure
  1. 在k8s集群中运行该CronJob,查看pod历史记录和日志


发现原生的CronJob只能查看最近3次执行记录,想要查看更久之前的记录无法看到,这在业务出现问题想排查的时候就变得尤为困难。


阿里云解决方案

阿里任务调度SchedulerX可以托管原生k8s任务,方便移植,使用SchedulerX托管,可以享有任务调度的特性,比如任务重跑、历史记录、日志服务、报警监控等。

  1. 新建k8s任务,任务类型选择k8s,资源类型选择Job-YAML,打印bpi(-1)

  1. 通过工具来生成cron表达式,比如每小时第8分钟跑

  1. 调度时间还没到,也可以手动点击“运行一次”来进行测试

  1. 在k8s集群中可以看到Job和Pod启动成功

  1. 在SchedulerX控制台也可以看到历史执行记录

  1. 在SchedulerX控制台可以看到任务运行日志

  1. 在线修改任务的YAML,打印bpi(100)

  1. 不需要删除Job,通过控制台来重跑任务

  1. 任务重跑成功,且能看到新的日志


下面通过一个表格来对比两个方案的差异

原生自带的Job方案

阿里云解决方案

测试开发(运行一次)

不支持

支持

重跑任务

不支持

支持

Cron定时调度

支持,YAML配置

支持,控制台通过工具生成,可动态修改

历史记录

最近3次

最近100次

日志

最近3次

最近2周

报警

不支持

支持

  • 报警类型:任务失败、超时等
  • 报警通道:短信、电话、webhook、邮件等


特性三:增强原生Job,支持可视化任务编排

在数据处理场景下,任务之间往往有依赖关系,比如A任务依赖B任务的完成才能开始执行。

Kubernetes原生解决方案

当前k8s中主流的解决方案是使用argo进行工作流编排,比如定义一个DAG如下:

# The following workflow executes a diamond workflow# #   A#  / \# B   C#  \ /#   DapiVersion: argoproj.io/v1alpha1
kind: Workflow
metadata:  generateName: dag-diamond
spec:  entrypoint: diamond
  templates:  - name: diamond
    dag:      tasks:      - name: A
        template: echo
        arguments:          parameters: [{name: message, value: A}]      - name: B
        depends: "A"        template: echo
        arguments:          parameters: [{name: message, value: B}]      - name: C
        depends: "A"        template: echo
        arguments:          parameters: [{name: message, value: C}]      - name: D
        depends: "B && C"        template: echo
        arguments:          parameters: [{name: message, value: D}]  - name: echo
    inputs:      parameters:      - name: message
    container:      image: alpine:3.7      command: [echo,"{{inputs.parameters.message}}"]

我们看到构建这么简单的一个DAG,就需要写这么多YAML,如果依赖关系复杂,则YAML就变得非常难维护。

阿里云解决方案

阿里任务调度SchedulerX支持通过可视化的工作流进行任务编排

  1. 创建一个工作流,可以导入任务,也可以在当前画布新建任务,通过拖拽构建一个工作流

  1. 点击运行一次,可以实时看到工作流的运行情况,方便排查任务卡在哪个环节:

  1. 如果有任务失败了,通过控制台查看日志

  1. 把任务修改正确,在工作流实例图上,原地重跑失败的节点

  1. 失败的任务会重新按照最新的内容执行

  1. 当上游都执行成功,下游就可以继续执行了


总结

通过任务调度SchedulerX来调度你的k8s任务,能够降低学习成本,加快开发效率,让你的任务失败可报警,出问题可排查,打造云原生可观测体系下的可视化k8s任务。

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
Kubernetes Devops Docker
【devops】十、Kubernetes编排工具(中)
【devops】十、Kubernetes编排工具(中)
183 1
|
27天前
|
Kubernetes Linux 调度
【赵渝强老师】K8s的周期性任务控制器CronJob
本文介绍了K8s中的CronJob控制器,它类似于Linux的crontab命令,用于管理和调度定时作业。CronJob可以设置在未来某一时间运行作业一次或在指定时间点重复运行作业。文章通过一个示例展示了如何创建和使用CronJob控制器,包括创建配置文件、应用配置、查看Pod信息和日志等步骤。同时,还解释了CronJob的时间表示方式及其限制。
|
27天前
|
Kubernetes 负载均衡 调度
Kubernetes集群管理与编排实践
Kubernetes集群管理与编排实践
|
4月前
|
Kubernetes Unix API
在K8S中,如果解决周期性任务?
在K8S中,如果解决周期性任务?
|
4月前
|
Kubernetes API Perl
在K8S中,如何让Pod运行一次?如何解决一次性任务?
在K8S中,如何让Pod运行一次?如何解决一次性任务?
|
4月前
|
Kubernetes Java 数据库连接
实时计算 Flink版产品使用问题之部署到 Kubernetes 集群时,任务过一会儿自动被取消,该如何排查
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
6月前
|
SQL 关系型数据库 MySQL
实时计算 Flink版产品使用问题之运行run-application --target kubernetes-application执行,通过进程的返回码来决定作业是否成功,任务返回码都是0,该怎么办
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
7月前
|
人工智能 Kubernetes Cloud Native
Kube Queue:Kubernetes 任务排队的利器
Kube Queue:Kubernetes 任务排队的利器
221580 104
|
7月前
|
缓存 Kubernetes Java
实时计算 Flink版产品使用合集之nk任务在k8s上运行,数据量大时经常失败,并且某个TaskManager被cgroup杀掉,该如何处理
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
7月前
|
机器学习/深度学习 运维 安全
阿里云 ACK One Serverless Argo 助力深势科技构建高效任务平台
阿里云 ACK One Serverless Argo 助力深势科技构建高效任务平台
101493 8