Serverless Argo Workflows大规模计算工作流平台荣获信通院“云原生技术创新标杆案例”

本文涉及的产品
函数计算FC,每月15万CU 3个月
简介: 2024年12月24日,阿里云Serverless Argo Workflows大规模计算工作流平台荣获由中国信息通信研究院颁发的「云原生技术创新案例」奖。

【阅读原文】戳:Serverless Argo Workflows大规模计算工作流平台荣获信通院“云原生技术创新标杆案例”

2024年12月24日,由中国信息通信研究院(以下简称“中国信通院”)主办的“2025中国信通院深度观察报告会:算力互联网分论坛”,在北京隆重召开。本次论坛以“算力互联网 新质生产力”为主题,全面展示中国信通院在算力互联网产业领域的研究、实践与业界共识,与产业先行者共同探索算力互联网产业未来发展的方向。

 

会议公布了“2024年度云原生与应用现代化标杆案例”评选结果,“阿里云Serverless Argo Workflows大规模计算工作流平台” 获得 “云原生技术创新标杆案例”


 

 

 

 

 

什么是Argo Workflows

 

 

 

Argo Workflows[1]是云原生计算基金会CNCF的毕业项目,项目成熟稳定,大量客户实际落地使用。Argo Workflows专为Kubernetes而设计,是离线任务编排与运行引擎,适用于仿真计算、科学计算、金融量化、机器学习数据处理、持续集成等场景。

 

 

Argo Workflow核心能力:

 

完善的UI / CLI / REST API / SDK,易用性好上手快,容易被集成。

 

多子任务编排,支持顺序流程和DAG流程,可以应对复杂流程编排。

 

每个子任务通过Kubernetes Pod运行,可以应对计算密集型任务。

 

预定义模版与模版组合,便于开发和业务复用。

 

 

 

 

 

阿里云Serverless Argo Workflows集群的优势

 

 

 

使用开源Argo Workflows自建工作流系统往往存在以下问题:

 

大规模工作流引起稳定性问题:

 

runC运行Pod,节点多容器争抢计算资源,内存OOM、磁盘满,频繁宕机。

 

工作流结果资源GC失败,controller连接数据库异常重启等。

 

大规模子任务Pod导致Kubernetes APIServer、Argo UI、Argo Controller异常等。

 

单体大工作流数据库归档失败。

 

大文档上传下载慢。

 

成本高,包含资源费用与运维人力成本:

 

工作流运行离线任务,计算资源波动大,按业务高峰规划固定资源池的成本高。

 

减少固定资源池,造成业务高峰工作流排队严重,影响业务效率。

 

不同部门对固定资源的成本难以分摊和统计。

 

日常运维工作量大,包括:底座Kubernetes集群的运维、资源规划、问题诊断、版本持续升级。

 

 

针对开源自建Argo Workflows系统的各种问题,阿里云Serverless Argo Workflows集群[2]采用全托管Kubernetes控制面(复用阿里云容器服务ACK Pro控制面[3])与Argo Workflows控制面,并针对单体大工作流、大规模子任务Pod并行调度运行做了针对性的性能优化,同时使用阿里云容器服务ACS[4]提供的Serverless Pod运行工作流。通过控制面性能调优和ACS的Serverless极致弹性算力,工作流规模对比开源自建提升10倍,单体大工作流可以支持数万子任务Pod,集群整体可以支持数千工作流和数万子任务的并行运行。

 

利用Serverless弹性算力,可以应对离线任务对计算资源波动大的挑战,业务高峰可以调度阿里云充足的计算资源避免工作流排队,提升业务效率。同时,完全按使用收费,避免维护固定资源池,大大降低了计算资源的费用,并支持工作流级别的成本分摊。

 

阿里云Serverless Argo Workflows集群,全托管控制面与数据面,开箱即用,免运维,并提供7*24小时产品化支持,对比开源自建节省大量运维成本。

 

目前,阿里云Serverless Argo Workflows集群已经在自动驾驶仿真计算、科学计算、金融量化、机器学习、数据处理、持续集成领域广泛应用。

 

 

 

 

行业案例

 

 

自动驾驶仿真

 

 

 

预定义仿真流程,仿真系统通过Argo Workflows Rest API提交工作流。

 

每个仿真场景启动一个Pod运行,利用Serverless弹性,并行运行数万Pod,大大加快仿真速度。

 

 

持续集成CI

 

 

 

CI构建是典型的潮汐算力行为,采用ECS/物理机构建模式,需要长期持有固定算力资源,整体资源使用成本较高,并且对于部分突发的构建任务支撑不足。利用Serverless弹性算力,完美解决预留资源高成本与CI突发算力需求的矛盾。

 

预构建工作流模版,自定义CI流程,结合事件驱动,自动触发工作流CI运行。

 

使用Spot算力,大大降低CI运行成本,并通过按量付费补齐能力,保证CI可靠运行。

 

 

量化回测

 

 

 

通过PythonSDK快速提交工作流。

 

每个股票启动一个Pod运行,利用Serverless弹性,并行运行数万Pod,大大加快回测运行速度。

 

 

 

 

总结

 

 

 

 

阿里云容器服务Serverless Argo Workflows大规模工作流平台作为云原生技术创新标杆案例,引领了云原生大规模离线任务处理的新方法。未来会继续在Serverless弹性、大规模、稳定性、成本等方向深耕,进一步促进大规模离线任务在Serverless场景下的快速落地。

 

欢迎使用钉钉搜索群号加入我们。(钉钉群号:35688562

 

相关链接:

 

[1] Argo Workflows

https://argoproj.github.io/workflows/

 

[2] 阿里云Serverless Argo Workflows集群

https://help.aliyun.com/zh/ack/distributed-cloud-container-platform-for-kubernetes/user-guide/overview-12

 

[3] 阿里云容器服务ACK Pro

https://help.aliyun.com/zh/ack/ack-managed-and-ack-dedicated/product-overview/what-is-ack

 

[4] 阿里云容器服务ACS

https://help.aliyun.com/zh/cs/product-introduction



我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。

欢迎关注 “阿里云基础设施”同名微信微博知乎

获取关于我们的更多信息~

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
4月前
|
人工智能 Cloud Native 安全
云原生+AI 为企业出海提供全新技术引擎!明天见
5月22日 14:00「飞天发布时刻」,阿里云云原生应用平台产品负责人李国强将重磅揭晓面向 AI 场景的云原生产品体系升级,通过弹性智能的全球一体化架构、开箱即用的云原生 AI 工程化能力,为中国企业出海提供全新技术引擎。
|
5月前
|
Cloud Native 关系型数据库 分布式数据库
|
5月前
|
存储 关系型数据库 分布式数据库
|
3月前
|
资源调度 Kubernetes 流计算
Flink在B站的大规模云原生实践
本文基于哔哩哔哩资深开发工程师丁国涛在Flink Forward Asia 2024云原生专场的分享,围绕Flink On K8S的实践展开。内容涵盖五个部分:背景介绍、功能及稳定性优化、性能优化、运维优化和未来展望。文章详细分析了从YARN迁移到K8S的优势与挑战,包括资源池统一、环境一致性改进及隔离性提升,并针对镜像优化、Pod异常处理、启动速度优化等问题提出解决方案。此外,还探讨了多机房容灾、负载均衡及潮汐混部等未来发展方向,为Flink云原生化提供了全面的技术参考。
210 9
Flink在B站的大规模云原生实践
|
4月前
|
存储 缓存 分布式计算
StarRocks x Iceberg:云原生湖仓分析技术揭秘与最佳实践
本文将深入探讨基于 StarRocks 和 Iceberg 构建的云原生湖仓分析技术,详细解析两者结合如何实现高效的查询性能优化。内容涵盖 StarRocks Lakehouse 架构、与 Iceberg 的性能协同、最佳实践应用以及未来的发展规划,为您提供全面的技术解读。 作者:杨关锁,北京镜舟科技研发工程师
StarRocks x Iceberg:云原生湖仓分析技术揭秘与最佳实践
|
4月前
|
人工智能 Serverless API
MCP Server 之旅第 4 站: 长连接闲置计费最高降低87%成本的技术内幕
阿里云函数计算(FC)提供事件驱动的全托管计算服务,支持 MCP Server 场景优化。通过 [MCP Runtime](https://mp.weixin.qq.com/s/_DSMRovpr12kkiQUYDtAPA),实现 Stdio MCP Server 一键托管,并借助亲和性调度解决 Session 保持问题。针对 MCP Server 的稀疏调用特性,函数计算引入长连接闲置计费机制,在毫秒级计费基础上,显著降低资源闲置成本(最高可达87%)。用户可通过控制台或 API 开启该功能,Websocket 长请求场景亦默认支持。此方案有效提升资源利用率,为用户提供灵活、经济的计算服务。
|
4月前
|
人工智能 Cloud Native 虚拟化
VMware vSphere 7.0 Update 3v 下载 - 数据中心虚拟化和云原生平台
VMware vSphere 7.0 Update 3v 下载 - 数据中心虚拟化和云原生平台
570 4
|
5月前
|
存储 关系型数据库 分布式数据库
登顶TPC-C|云原生数据库PolarDB技术揭秘:高可用-无感切换篇
阿里云PolarDB云原生数据库在TPC-C基准测试中以20.55亿tpmC的成绩刷新世界纪录,单位成本仅0.8元人民币。PolarDB通过VotingDisk实现秒级故障切换,RPO=0,提供高可用性。PolarDB还推出国产轻量版,兼具高性能与低成本,满足多样化需求。
|
5月前
|
SQL 分布式计算 Serverless
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
鹰角网络为应对游戏业务高频活动带来的数据潮汐、资源弹性及稳定性需求,采用阿里云 EMR Serverless Spark 替代原有架构。迁移后实现研发效率提升,支持业务快速发展、计算效率提升,增强SLA保障,稳定性提升,降低运维成本,并支撑全球化数据架构部署。
501 56
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用

热门文章

最新文章