深度解析 | 基于DAG的分布式任务调度平台:Maat

本文涉及的产品
对象存储 OSS,20GB 3个月
云解析 DNS,旗舰版 1个月
全局流量管理 GTM,标准版 1个月
简介:

背景

什么是Maat?

Maat是一个基于开源项目Airflow的流程调度系统,它支持用户自定义地组装流程节点,流程可以在用户指定的时间触发(支持crontab格式),或由用户手动触发。

Maat的所有节点分布式地运行在Hippo上,由Drogo调度。用户可以创建自己的调度节点和执行节点,达到资源隔离的目的。

用户可以通过配置的方式安装自己执行节点的运行环境,也可以配置执行节点的副本数。

下图展示了一个任务的一次调度流程:

bd1a12678539dc20ae67429bce2496e4b6a72a78

为什么要做Maat?

我们在项目的开发过程中,经常遇到一些流程化/定时调度的需求,如上线发布流程、定时分析任务流程等。对于这些流程化的调度任务,我们尝试过自己开发了一套流程调度系统,也尝试过接入集团的工作流,但难免会遇到一些问题:

•  业务代码和调度代码耦合严重,修改流程基本需要入侵到代码级别,业务代码的发布影响调度。
•  对于这些调度任务,没有一个统一管控的系统,难以管理和追溯。
•  多分支的复杂流程不能很好支持,上下文传递场景不能很好支持。
•  缺少可视化的UI,用户使用不友好。

技术选型

定时任务&流程任务的调度是一个通用的需求,集团内的产品如D2、工作流,开源的产品如Airflow、Quartz等。

D2

D2是基于ODPS生态的一套流程调度系统,承载集团基于ODPS数据产出的调度任务。支持用户自定义编写脚本,支持定时任务触发和手动触发(补运行的方式),适合基于数据状态的任务流程调度(如根据数据的产出执行任务流),由D2团队专门维护,有较好的UI。

但它有一些不足:

•  D2的DAG调度是一张大图,每天需要运行的每个节点及拓扑关系是根据前一天的全局的拓扑关系计算得出的,所以新创建/修改的任务理论上只能第二天生效,如果想立即生效需要采用补运行的方式。业务上经常会有任务的变动(如任务配置或调度时间),或手动触发一个调度的场景(如随时发生的上线流程、全量流程),使用D2对业务不是很灵活,也不符合D2的使用场景。
•  不支持流程上下文的传递,业务上对上下文的传递比较强烈,经常有上个节点产出某个值,下个节点需要使用。
•  缺乏对搜索生态的支持。搜索技术部整个底层架构有自己的一套生态,如调度(Hippo,Drago)、报警(Kmon)。使用D2,不能充分享受搜索技术生态带来的好处,对于之后的单元化部署也会带来问题。

工作流

集团工作流是集团审批流程的一个通用调度引擎,很多产品的审批流程都是基于集团工作流的,同时它也可以作为一个简易的任务调度流程使用,我们在Maat之前也使用集团工作流作为我们流程任务的调度引擎。它支持手动触发,支持以HSF的方式调用外部系统,支持上下文传递。但它在配置上较为复杂,且支持外部系统的调用方式有限。

Quartz

Quartz是Java开源的任务调度框架。它支持分布式调度、支持任务持久化、支持定时任务,但不支持流程调度,且任务配置需要耦合在调度系统中,任务的热加载需要做一些改造。

Airflow

开源项目Airflow是一套分布式的流程调度系统,它的优势如下:

•  业务代码和调度系统解耦,每个业务的流程代码以独立的Python脚本描述,里面定义了流程化的节点来执行业务逻辑,支持任务的热加载。
•  完全支持crontab定时任务格式,可以通过crontab格式指定任务何时进行。
•  支持复杂的分支条件,每个节点单独设定触发时机,如父节点全部成功时执行、任意父节点成功时执行。
•  有一套完整的UI,可视化展现所有任务的状态及历史信息。
•  外部依赖较少,搭建容易,仅依赖DB和rabbitmq。
•  有同学问到Luigi与Airflow的对比,个人感觉都是基于pipline的一个任务调度系统,功能也大同小异,Airflow属于后来居上,功能更强,找到一篇同类产品的 对比。
5f49af8516f915427521efb259677f16e9ecf6fe

经过一段时间的调研,我们选用Airflow作为我们的原型开发一套分布式任务调度系统,它功能全面,基本满足业务需求,在功能上扩展相对方便,外部依赖较少,和搜索生态对接相对容易。

原生Airflow的问题

Airflow可以解决流程调度中面临的许多问题,但直接将原生的Airflow用于生产,仍面临一些问题:

•  原生Airflow虽然支持分布式,但由于依赖本地状态,不能直接部署在drogo上。
•  缺乏合适的监控手段,需要结合kmon完善监控和报警设施。
•  缺乏用户友好的编辑手段,用户需要了解Airflow的原理和细节。
•  大量任务运行时,调度的性能急剧下降。
•  分布式模式下,原生Airflow存在一些bug。

Maat架构

Maat架构:

ecc42506c13f2c45ae0441d8a0e64b2d4c0dafe2

业务层

任何流程式调度及定时触发的需求均可以通过Maat创建应用,Maat提供了可视化编辑页面及丰富的api,用户可以方便地创建编辑流程模板,设置复杂的分支逻辑,Maat会在调度时按照运行时的状态决定流程的流转路径。

目前接入Maat的应用场景包括Tisplus、Hawkeye、Kmon、容量平台、离线组件平台、Opensearch

管控层

由于原生Airflow的管控比较简单,是基于描述任务流程dag的Python脚本调度,用户要进行任务的创建、更新、运行需要深入学习Airflow原理才能上手,并且之后维护只能基于文件操作,非常不便。因此Maat在外层封装一层管控系统Maat Console,降低运维及用户学习的成本。

下图是Maat管控系统Aflow的操作界面:

f770774da82ae20e49e11951e600f1cb1194a7bd

模板管理

在任务流程调度的场景中,常见的情况是:不同任务执行的流程基本一致,只有个别参数不同。因此Maat提出了基于模板管理的任务流程,用户在模板管理中定义一个流程的运行模板,对于其中未确定的部分用变量表示。当生成具体任务时,由具体变量和模板渲染出具体的任务。当模板修改时,可以将模板生效到所有依赖该模板的任务。

f8a81ed7c2fdbaf1a690bfc1088ee012c4261942

模板管理预设了几种任务节点,用户可以自由选择不同的任务节点组装模板流程。

应用管理

管理所有具体的流程调度任务,包括任务使用的模板、变量的值、报警信息、任务触发crontab等,用户在通过模板创建应用后,后续可以通过应用管理继续维护任务的运行。

队列管理

由于Maat上运行的任务所属应用各不相同,不同应用运行环境也不相同,另外不同应用也希望达到集群隔离的目的。为了实现这个功能Maat提供了队列的管理,指定队列的任务节点会被调度到相应队列的机器上,相应队列的机器也只会运行指定队列的任务节点。

另外,队列上也可以指定并发数,表示当前队列上最多同时有多少个任务运行,确保机器上同时运行的任务不会太多导致负载过高,超出并发的任务会被挂起直到资源释放。

核心模块

Maat核心模块完成了任务调度的整个流程。核心模块的每个节点都独立运行在机器上,启动上互相不依赖,通过DB保存数据状态,通过MQ或FaaS完成消息的分发。

Web Api Service

Web Api Service提供了丰富的与外部交互的Api,包括任务增删改、历史任务状态、任务状态修改、任务的触发、任务的重试等接口。

另外原生Airflow提供的web展示功能也是由该角色完成。

Scheduler

scheduler是Maat关键角色,它决定了任务何时被调度运行,也决定一次任务运行中,哪些节点可以被执行。被判定执行的节点会被scheduler通过MQ或FaaS发送给worker执行。

随着任务的增多,单一的scheduler负载过高导致调度周期增长,为了减轻scheduler的压力,Maat将scheduler按照业务拆分。不同业务的任务有独立的scheduler负责调度,发送任务到指定的Worker上。

Scheduler性能优化

原生Airflow的调度逻辑吞吐量较低,当任务量增多时,调度周期会很长,一些任务多的Scheduler延迟到达1分钟左右。我们参考社区最新的实现,对原生调度逻辑进行优化,将原先阻塞的调度方式拆分为多个进程池,全异步地完成可执行任务的生产->提交->轮询操作。经过压测原先调度周期为30s-40s的场景降低为5s左右。

5f3b7c224311fe4ea144cd4656df4f8b73ac5326

Worker

worker为具体执行任务的角色,worker会接受scheduler发出的任务,在worker上执行节点中描述的具体任务。worker多副本部署,任务会在任意一个对等的worker上机器,当worker资源不足时,可以动态扩容。

由于不同队列任务所需的基础环境不同,如Python、Java、Hadoop、zk等,不同队列的worker角色启动参数有配置上的差异,不同队列的worker启动时会按照配置中描述的资源完成部署安装。

worker上任务完成后会回写db,scheduler察觉到当前任务状态变化后会继续任务的调度。

Distributers

任务分发层负责将scheduler需要调度的任务发送到指定的Worker上。目前Maat同时使用原生Celery+Rabbitmq的方式和搜索生态FaaS的方式实现任务分发。

Celery + RabbitMQ

原生Airflow使用Celery + RabbitMQ完成消息从Scheduler到Worker的分发。

Scheduler将需要运行的任务发送到MQ中,发送到MQ中包含任务对应的队列信息。Worker从MQ获取消息时,仅获取相应队列任务,拉取到对应Worker上执行。MQ在Maat中以rabbitmq实现,MQ和其他角色一样,也是独立部署的。

a2103685687e312249c4a688e913c2638b2f31b8

Celery + Rabbitmq的模型对消息队列中的任务进行持久化,所有的任务状态也进行持久化,内存Queue的性能满足大部分场景的需求。但由于Maat基于二层调度Drogo部署,任何部署节点都要求无状态的,而消息队列MQ因为保存消息状态显然不满足这个要求,所以我们选择使用搜索生态的FaaS框架作为Celery + RabbitMQ的替代方案。

FaaS

FaaS:FaaS(Function as a Service)是基于搜索生态实现的ServerLess框架,Maat将其作为执行器。Maat的所有任务都抽象成function,任务执行时则调用相应的function,完成后返回任务状态。目前已完成与FaaS的初步对接,期望未来能基于FaaS做更多优化。如:多样化的任务执行方式,可以将轻量级的任务函数化,将重量级的任务服务化;任务资源动态调整,甚至某些任务可以执行时分配资源,完成后即释放。

对于Maat来讲,FaaS支持任务从生产者到消费者的分发,内置消息Queue,提供任务状态接口,同时FaaS自身保证消息不对丢失,后续还具备根据消费者负载自动扩缩容的功能。

d5db4645fd2018973521d49c270f6d0f18cecd98

基础组件

•  DB:使用集团IDB,负责Maat信息的持久化,包括任务信息、任务运行历史、任务运行状态、节点运行历史、节点运行状态等。
•  OSS:由于上drogo导致机器迁移的风险,所有日志不能存放在本地,因此所有节点运行日志存放在oss上,需要查看日志上从oss上获取。
•  Kmon:完成监控集群运行状态及任务失败的报警功能。
•  Drogo:完成Maat所有节点的docker容器化部署。

Maat平台的优势

可视化编辑及通用的节点类型

Maat提供了一个管控平台Aflow,用户可以方便地编辑流程节点,管理所有的模板和任务,详细见上文的[管控层]。

除此之外,Maat还提供了丰富的通用节点类型。原生Airflow支持许多不同种类的节点类型,这些节点可以执行不同类型的任务。在与用户的接触中,Maat针对用户的使用习惯与需求,对一些节点进行封装,同时开发了几种新的节点类型,可以满足大部分用户的需求。

•  Bash节点:直接在worker上执行简单的bash操作,由于bash通常需要依赖其他资源,实际使用较少,参照“带资源的Bash节点”;
•  Http节点:该节点支持http调用,调度时发送http请求触发其他系统,同时该节点提供一个轮询的http接口,触发成功后轮询其他系统是否成功,成功时才继续运行;
•  带资源的Bash节点:与普通Bash节点不同的是,该节点附带一些资源(如jar包、bash脚本、Python脚本等),节点运行时会先将资源下载到本地,然后执行bash脚本;
•  分支节点:该节点根据之前节点的运行结果或初始传入的参数决定分之后的节点走哪个分支。

Drogo化部署

Maat服务有多种角色,每种角色都需要不同的运行环境,为了维护这些运行环境,对运维同学来说绝对是个噩梦,这种情况下上hippo成为Maat运维最好的选择。drogo作为基于二层调度服务的管控平台,为Maat各个节点部署在hippo上成为可能。具体来说,Drogo化的优势如下:

•  低成本增加新节点。上Drogo前,有新增节点的需求时,每次都需要准备运行资源,重新写部署脚本,而每个节点的脚本都要运维同学自己维护。上Drogo后,所有这些部署信息保存在Drogo平台上,有新的的节点也只需要将之前类似的部署信息复制,稍加修改即可。
•  扩容简单。上Drogo前,某类任务水位太高,为这类任务扩容,每次都需要准备机器、准备环境、调试运行参数,可能需要半天到一天的时间。上Drogo后,调整副本数,Drogo会自动扩容。
•  有效防止机器迁移带来的服务中断。上Drogo前,机器出现问题后,只能另找机器扩容,对于某些只能单点运行的节点,只能烧香祈祷机器不挂了。上Drogo后,机器迁移后,会Drogo会自动分配一台机器将服务拉起,对于可中断的服务,单节点部署也不用担心机器挂了导致服务消失了。

下图展示了目前Drogo上部署的Maat各个角色:

137a5cab72bc5911af143362b0819b25342046e9

由于原生Airflow的一些节点是有状态的,需要依赖本地一些文件,机器迁移会导致这些节点的状态丢失,我们对Maat做了一些修改,保证机器迁移不会丢失运行状态:

•  之前的调度依赖本地Python dag文件,机器迁移导致本地文件丢失。我们做了修改,所有dag保存在db,依赖db中保存的信息调度,保证机器迁移后,dag信息也不会丢失。
•  由于基于本地文件,web service和scheduler读写的都是同一份dag文件,导致原生Airflow的scheduler和web service角色必须绑定运行。以db中信息调度后,web service和scheduler可以单独部署。
•  由于原来日志文件保存在本地,机器迁移会导致日志文件丢失。我们改造后,将日志文件保存在oss远端,每次读取日志从远端读取。

分集群管理

由于不同任务隔离的需求,Maat基于Airflow原生的队列管理扩展不同任务的集群管理功能,不同类型的任务可以创建自己的scheduler和worker,创建应用时可以使用指定的scheduler调度或运行在指定worker上(如果不指定由默认scheduler和worker调度)。

2571038aa982273c6d08a0152318da935ae6730e

集群的配置参数包括以下信息:

•  worker部署配置:该worker依赖的资源,drogo启动时会将任务运行需要的资源部署到worker机器上,机器迁移时也会使用这份部署配置重新分配资源。
•  worker个数:控制worker角色的个数。
•  集群并发数:控制集群中正在运行的并发数,防止任务运行过多导致下游系统压力过大。
•  scheduler:目前每个集群只有一个scheduler,后续会改造成支持多个scheduler调度节点。

监控&报警

平台监控报警

为了掌握平台的运行状况,Maat在各个节点的关键步骤向kmon汇报metric信息,metric异常状态下会发送报警给开发同学。也可以根据这些metric信息判断当前集群的负载状况,对任务负载较高的节点进行优化。

0087f33c2cbe7b2da186df4d8ac8c79d5ef61cfd

任务报警

对于具体任务,Maat支持在每个任务节点运行异常的情况下发送报警,如节点运行异常、任务未按时运行、任务运行超时等。用户可以在管控平台设置报警条件及报警接收人。

平台现状

Maat是一个通用基于Dag的任务调度系统,服务于集团内部和云上的许多场景:

•  搜索中台Tisplus:调度Tisplus的上线流程及其他需要定时触发的任务;
•  Hawkeye:定时调度Hawkeye的分析任务;
•  搜索监控平台Kmon:支持kmon的监控托管服务及报警处理流程;
•  搜索容量预估平台Torch:支持容量预估流程的管控;
•  搜索离线平台Bahamut:支持离线组件平台发布流程、全量流程;
•  Opensearch:一些算法场景的离线任务;
•  Tpp:推荐场景的流程调度任务。

Maat线上集群任务执行现状(2018.8.13数据):

•  日均调度任务:3000+个
•  日均运行任务:24K+次

随着更多应用场景的接入,平台能力将会接受进一步的考验。

未来展望

随着业务的接入和数据规模的增大,Maat平台也需要进一步提升用户体验,提升平台稳定性。

•  与Aflow进一步结合,在管控平台上一站式完成集群的创建、配置、部署。
•  提供更加丰富的报警选项,进一步加强错误的反馈机制。
•  随着任务数量的增多,一些调度上的缺陷逐渐体现出来,对于这些缺陷做进一步优化。
•  和FaaS深度合作,为各类任务创建单独的FaaS服务,降低资源利用率。

加入我们

搜索中台从0到1建设已经走过了3年,但它离我们心目中让天下没有难用的搜索的远大愿景还离的非常远,在这个前行的道路上一定会充满挑战,无论是业务视角的SaaS化能力、搜索算法产品化、云端devops&aiops,还是业务建站等都将遇到世界级的难题等着我们去挑战。所以,无论是web开发,引擎开发还是算法同学。


原文发布时间为:2018-08-16

本文作者:斯兰

本文来自云栖社区合作伙伴“阿里技术”,了解相关信息可以关注“阿里技术”。

相关文章
|
1月前
|
存储 缓存 算法
分布式锁服务深度解析:以Apache Flink的Checkpointing机制为例
【10月更文挑战第7天】在分布式系统中,多个进程或节点可能需要同时访问和操作共享资源。为了确保数据的一致性和系统的稳定性,我们需要一种机制来协调这些进程或节点的访问,避免并发冲突和竞态条件。分布式锁服务正是为此而生的一种解决方案。它通过在网络环境中实现锁机制,确保同一时间只有一个进程或节点能够访问和操作共享资源。
73 3
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
Hugging Face 论文平台 Daily Papers 功能全解析
【9月更文挑战第23天】Hugging Face 是一个专注于自然语言处理领域的开源机器学习平台。其推出的 Daily Papers 页面旨在帮助开发者和研究人员跟踪 AI 领域的最新进展,展示经精心挑选的高质量研究论文,并提供个性化推荐、互动交流、搜索、分类浏览及邮件提醒等功能,促进学术合作与知识共享。
|
16天前
|
消息中间件 监控 数据可视化
Apache Airflow 开源最顶级的分布式工作流平台
Apache Airflow 是一个用于创作、调度和监控工作流的平台,通过将工作流定义为代码,实现更好的可维护性和协作性。Airflow 使用有向无环图(DAG)定义任务,支持动态生成、扩展和优雅的管道设计。其丰富的命令行工具和用户界面使得任务管理和监控更加便捷。适用于静态和缓慢变化的工作流,常用于数据处理。
Apache Airflow 开源最顶级的分布式工作流平台
|
20天前
|
机器学习/深度学习 人工智能 自然语言处理
医疗行业的语音识别技术解析:AI多模态能力平台的应用与架构
AI多模态能力平台通过语音识别技术,实现实时转录医患对话,自动生成结构化数据,提高医疗效率。平台具备强大的环境降噪、语音分离及自然语言处理能力,支持与医院系统无缝集成,广泛应用于门诊记录、多学科会诊和急诊场景,显著提升工作效率和数据准确性。
|
1月前
|
消息中间件 中间件 数据库
NServiceBus:打造企业级服务总线的利器——深度解析这一面向消息中间件如何革新分布式应用开发与提升系统可靠性
【10月更文挑战第9天】NServiceBus 是一个面向消息的中间件,专为构建分布式应用程序设计,特别适用于企业级服务总线(ESB)。它通过消息队列实现服务间的解耦,提高系统的可扩展性和容错性。在 .NET 生态中,NServiceBus 提供了强大的功能,支持多种传输方式如 RabbitMQ 和 Azure Service Bus。通过异步消息传递模式,各组件可以独立运作,即使某部分出现故障也不会影响整体系统。 示例代码展示了如何使用 NServiceBus 发送和接收消息,简化了系统的设计和维护。
48 3
|
22天前
|
供应链 安全 BI
CRM系统功能深度解析:为何这些平台排名靠前
本文深入解析了市场上排名靠前的CRM系统,如纷享销客、用友CRM、金蝶CRM、红圈CRM和销帮帮CRM,探讨了它们在功能性、用户体验、集成能力、数据安全和客户支持等方面的优势,以及如何满足企业的关键需求,助力企业实现数字化转型和业务增长。
|
1月前
|
存储 缓存 数据处理
深度解析:Hologres分布式存储引擎设计原理及其优化策略
【10月更文挑战第9天】在大数据时代,数据的规模和复杂性不断增加,这对数据库系统提出了更高的要求。传统的单机数据库难以应对海量数据处理的需求,而分布式数据库通过水平扩展提供了更好的解决方案。阿里云推出的Hologres是一个实时交互式分析服务,它结合了OLAP(在线分析处理)与OLTP(在线事务处理)的优势,能够在大规模数据集上提供低延迟的数据查询能力。本文将深入探讨Hologres分布式存储引擎的设计原理,并介绍一些关键的优化策略。
105 0
|
2月前
|
数据挖掘 BI UED
B2B 领域 CRM 平台全景解析
在快节奏的商业环境中,移动CRM应用让企业随时随地管理客户关系,成为不可或缺的利器。本文深入探讨了七款优秀移动CRM应用:销售易Mobile、Salesforce Mobile、纷享销客、Zoho CRM Mobile、HubSpot Mobile、金蝶云·星辰移动端及用友U8+移动端,详细分析了各自的优势和适用场景。企业可根据具体需求、预算和行业特点,选择最适合的移动CRM解决方案,提升销售效率与管理水平,为企业发展注入新活力。
B2B 领域 CRM 平台全景解析
|
2月前
|
API 云计算 开发者
使用宜搭平台带来的便利:技术解析与实践
【9月更文第8天】随着企业信息化建设的不断深入,业务流程自动化的需求日益增长。宜搭平台作为一种高效的应用构建工具,为企业提供了快速搭建各类业务系统的可能。本文将探讨使用宜搭平台给企业和开发者带来的便利,并通过具体的代码示例展示其优势。
94 11
|
2月前
|
监控 算法 数据可视化
深入解析Android应用开发中的高效内存管理策略在移动应用开发领域,Android平台因其开放性和灵活性备受开发者青睐。然而,随之而来的是内存管理的复杂性,这对开发者提出了更高的要求。高效的内存管理不仅能够提升应用的性能,还能有效避免因内存泄漏导致的应用崩溃。本文将探讨Android应用开发中的内存管理问题,并提供一系列实用的优化策略,帮助开发者打造更稳定、更高效的应用。
在Android开发中,内存管理是一个绕不开的话题。良好的内存管理机制不仅可以提高应用的运行效率,还能有效预防内存泄漏和过度消耗,从而延长电池寿命并提升用户体验。本文从Android内存管理的基本原理出发,详细讨论了几种常见的内存管理技巧,包括内存泄漏的检测与修复、内存分配与回收的优化方法,以及如何通过合理的编程习惯减少内存开销。通过对这些内容的阐述,旨在为Android开发者提供一套系统化的内存优化指南,助力开发出更加流畅稳定的应用。
73 0

推荐镜像

更多
下一篇
无影云桌面