Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速

简介: 在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。

作者:邵丹(营火)


e864ee4bc696c45963ed30a674a3fefc.png

本文整理自 2025 云栖大会,阿里云智能集团高级产品专家张凤婷的演讲


在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。


阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新,而不是基础设施。

1761207178521_78B93951-6468-4ab7-A5C6-C1181E8292B8.png


传统容器化、微服务应用的稳健托管

过去的“裸机+脚本”时代,部署繁琐、扩容低效、故障频发;随后 Docker 与 Kubernetes 将算力进一步抽象,但自建集群仍需维护节点与控制面,稳定性与人力成本难以平衡。而进入 AI 时代后,仅仅“跑得稳、跑得快”已不够,企业还需要打通模型、工具链、知识库的体系化支撑与生产级治理。


SAE 正是为此而生:它将阿里巴巴十几年来沉淀的运维经验产品化,将复杂的 Kubernetes 体系产品化封装成“应用级”能力,以企业级高可用、极致资源效率、深度云生态集成为底座,既支持传统 Web/微服务/批作业等应用,也面向 AI Agent、RAG 与工作流类应用提供一键式生产级托管。

image.png

简:把复杂留给自己,把简单留给用户

SAE 的设计哲学是将极致的简单体验交付用户。为此,它实现了三个“零”的承诺:

  • “零”代码改造:无论是 WAR/JAR 包、Docker 镜像,还是单体应用、微服务架构,都无需修改一行代码即可平滑迁移至 SAE。
  • “零”使用门槛:屏蔽了 Kubernetes 的底层复杂性,无论是 Kubernetes 专家还是运维新手,都能轻松上手,像管理应用一样管理容器。
  • “零”厂商绑定:在深度优化的同时,SAE 全面兼容 Kubernetes 生态,支持开源CI/CD工具链,让技术选型自由灵活。


稳:从架构到防护,全程保障线上稳定运行

稳定是企业生产的生命线,SAE 构建了一套从架构到防护的保障体系,全链路守护系统的稳定性。这套体系涵盖了架构上的跨可用区高可用、弹性上的秒级快速响应、运维上的全链路可观测、安全上的纵深防御以及流程上的自动化发布与回滚。这些能力让用户在使用 SAE 后,能够专注于业务本身,而不用关心基础设施的运维。


省:极致资源利用率,把每一分钱花在刀刃上

降本增效是企业长期的追求。SAE 通过精细化的资源管理,帮助企业实现资源的最大利用率。按需使用、按量计费的特性能够根据业务负载的变化,在秒级时间内快速完成资源的扩容或缩容,从容应对流量的波峰波谷,确保业务体验的同时避免了资源浪费。

SAE 独有的“闲置计费”能力,在业务低峰期(如夜间),能够自动将应用缩容至极小规格甚至为零,将资源智能回收至阿里云庞大的共享资源池。当流量回升时,又能在一秒内快速恢复服务。这一全自动化的过程,可为用户节省大量的闲置资源成本,真正把每一分钱都花在刀刃上。


智能运维:SAE 内置 AI 运维助手,让“救火”变“决策”

  • 深耕垂直场景:以 SAE 平台侧深度知识和大量生产数据为训练基础。
  • 高覆盖智能诊断:覆盖 95% 以上可枚举问题,准确率 80% 以上。
  • 预警与自愈:聚焦平台特性,面向配置与操作错误给出优化建议,平台自身故障率降低约 90% 以上。


面向 AI 应用的生产级托管:从快速探索到高效落地

根据预测,未来 90% 以上的互联网入口或将由 AI 智能体(Agent)构成。然而,理想与现实之间仍有鸿沟:开源AI框架层出不穷,但其技术复杂性、版本不稳定性以及高昂的资源成本,常常让企业在“生产化”的最后一公里望而却步。


AI 技术与开源生态迭代极快,但“开源≠生产就绪”。SAE 不参与模型训练,而是专注让 AI 应用“跑得稳、跑得快、管得住”,将 AI 落地的基础设施与治理产品化。

image.png

SAE 开源 AI 托管平台:开启企业 AI 应用的“简单时代

  • 一站式 AI 应用中心:支持工作流编排、运行沙箱、版本管理、流量治理、灰度发布;默认集成日志/监控/追踪与性能评测、链路压测,保障环境一致性。
  • 开放兼容:无论开源模型还是自研模型,均可与阿里云存储、网络、可观测、服务治理等能力深度集成。
  • 模板与生态:已支持 Dify(低代码 AI 应用平台)、OpenManus(AI 工作流引擎)、JManus(Java 版、MCP 协议)、RAGFlow(检索增强生成框架)、Airflow(工作流调度),后续将陆续支持 N8N、Maker 等自动化工具。
  • “零节点”管理与自动化运维:容器化与 Serverless 架构、一键部署、弹性伸缩、故障自愈、实时监控、镜像仓库与安全托管。


Dify on SAE:把开源 AI 应用变成企业级生产力

开源 Dify 在生产环境常见的稳定性、安全性问题与性能短板,SAE 通过体系化加固与优化,将其升级为“生产可用”的企业级 AI 平台:

  • 生产级架构:支持三可用区部署、负载均衡与健康检查联动、实例粒度自动迁移、无损上下线。
  • 安全防护:全链路防护策略(DDoS、WAF、流量防护、云安全中心),VPC内独立部署,数据不出安全域。
  • 简单易用:分钟级创建,无需额外配置;全链路监控默认集成;按需弹性,资源自动伸缩。
  • 深度云融合:一键集成阿里云 RDS(PostgreSQL)、Redis、AnalyticDB 等数据服务。
  • 性能&成本:经过 SAE 的优化之后(以 1.7 版本为例),性能提升可达 50 倍;按需按量付费,无需冗余保证资源,综合成本降低 30% 以上。

Serverless 应用引擎(SAE)发布于 2017 年,历经八年商业化打磨,SAE 已成为阿里云一款极其成熟和重要的产品,服务了上万家企业客户,更是在 2025 年跻身 Gartner®云原生应用平台领导者象限。


未来,SAE 将持续致力于成为 AI 时代的基础设施,以“简、稳、省”为传统应用托底,以“开放、兼容、生产级治理”为 AI 应用加速,帮助企业从探索走向落地、从技术走向价值。

点击此处,查看快速部署 Dify 解决方案。

相关实践学习
SAE 极速部署专属AI证件照神器
本实验带您体验在SAE快速部署一套自己专用的AI 证件照神器。使用SAE部署应用,您无需长期租用服务器,SAE允许在不使用时实例缩容为零,不产生费用。
相关文章
|
4月前
|
机器学习/深度学习 人工智能 Serverless
吉利汽车携手阿里云函数计算,打造新一代 AI 座舱推理引擎
当前吉利汽车研究院人工智能团队承担了吉利汽车座舱 AI 智能化的方案建设,在和阿里云的合作中,基于星睿智算中心 2.0 的 23.5EFLOPS 强大算力,构建 AI 混合云架构,面向百万级用户的实时推理计算引入阿里云函数计算的 Serverless GPU 算力集群,共同为智能座舱的交互和娱乐功能提供大模型推理业务服务,涵盖的场景如针对模糊指令的复杂意图解析、文生图、情感 TTS 等。
|
4月前
|
人工智能 运维 安全
加速智能体开发:从 Serverless 运行时到 Serverless AI 运行时
在云计算与人工智能深度融合的背景下,Serverless 技术作为云原生架构的集大成者,正加速向 AI 原生架构演进。阿里云函数计算(FC)率先提出并实践“Serverless AI 运行时”概念,通过技术创新与生态联动,为智能体(Agent)开发提供高效、安全、低成本的基础设施支持。本文从技术演进路径、核心能力及未来展望三方面解析 Serverless AI 的突破性价值。
|
4月前
|
设计模式 人工智能 自然语言处理
3个月圈粉百万,这个AI应用在海外火了
不知道大家还记不记得,我之前推荐过一个叫 Agnes 的 AI 应用,也是当时在 WAIC 了解到的。
567 1
|
4月前
|
人工智能 安全 Serverless
再看 AI 网关:助力 AI 应用创新的关键基础设施
AI 网关作为云产品推出已有半年的时间,这半年的时间里,AI 网关从内核到外在都进行了大量的进化,本文将从 AI 网关的诞生、AI 网关的产品能力、AI 网关的开放生态,以及新推出的 Serverless 版,对其进行一个全面的介绍,期望对正在进行 AI 应用落地的朋友,在 AI 基础设施选型方面提供一些参考。
807 73
|
4月前
|
人工智能 缓存 运维
【智造】AI应用实战:6个agent搞定复杂指令和工具膨胀
本文介绍联调造数场景下的AI应用演进:从单Agent模式到多Agent协同的架构升级。针对复杂指令执行不准、响应慢等问题,通过意图识别、工具引擎、推理执行等多Agent分工协作,结合工程化手段提升准确性与效率,并分享了关键设计思路与实践心得。
751 20
【智造】AI应用实战:6个agent搞定复杂指令和工具膨胀
|
4月前
|
人工智能 安全 数据可视化
Dify让你拖拽式搭建企业级AI应用
Dify是开源大模型应用开发平台,融合BaaS与LLMOps理念,通过可视化工作流、低代码编排和企业级监控,支持多模型接入与RAG知识库,助力企业快速构建安全可控的AI应用,实现从原型到生产的高效落地。
Dify让你拖拽式搭建企业级AI应用
|
4月前
|
自然语言处理 数据挖掘 关系型数据库
ADB AI指标分析在广告营销场景的方案及应用
ADB Analytic Agent助力广告营销智能化,融合异动与归因分析,支持自然语言输入、多源数据对接及场景模板化,实现从数据获取到洞察报告的自动化生成,提升分析效率与精度,推动数据驱动决策。
|
5月前
|
存储 人工智能 Serverless
函数计算进化之路:AI 应用运行时的状态剖析
AI应用正从“请求-响应”迈向“对话式智能体”,推动Serverless架构向“会话原生”演进。阿里云函数计算引领云上 AI 应用 Serverless 运行时技术创新,实现性能、隔离与成本平衡,开启Serverless AI新范式。
578 12
|
10月前
|
SQL 分布式计算 Serverless
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
鹰角网络为应对游戏业务高频活动带来的数据潮汐、资源弹性及稳定性需求,采用阿里云 EMR Serverless Spark 替代原有架构。迁移后实现研发效率提升,支持业务快速发展、计算效率提升,增强SLA保障,稳定性提升,降低运维成本,并支撑全球化数据架构部署。
1090 56
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
|
10月前
|
人工智能 开发框架 安全
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
819 30

热门文章

最新文章

相关产品

  • 函数计算
  • Serverless 应用引擎