助力企业构建 AI 原生应用,函数计算 FunctionAI 重塑模型服务与 Agent 全栈生态

简介: 在 AI 技术应用落地进程中,目前面临着五大核心挑战:开发/学习门槛过高,部署运维阶段复杂,AI 应用安全备受挑战,生态能力方面存在严重的割裂与锁定现象,同时资源成本高昂且利用率低下。这些挑战极大地阻碍了 AI 技术的广泛普及以及应用效率的有效提升。阿里云函数计算(FC)依托 Serverless AI 基础设施与全栈能力的创新突破,推出 Function AI(函数智能),精准攻克上述痛点问题,全面推动 AI 应用在开发至运维的全流程中实现降本增效。

作者:刘宇

1763534755404_80C9684E-83E4-4600-8A3D-3C561707DE43.png

本文整理自 2025 云栖大会,阿里云智能集团产品专家,刘宇演讲议题《函数计算发布 FunctionAl:serverless Al 原生应用基础设施》


在 AI 技术应用落地进程中,目前面临着五大核心挑战:开发/学习门槛过高,部署运维阶段复杂,AI 应用安全备受挑战,生态能力方面存在严重的割裂与锁定现象,同时资源成本高昂且利用率低下。这些挑战极大地阻碍了 AI 技术的广泛普及以及应用效率的有效提升。


阿里云函数计算(FC)依托 Serverless AI 基础设施与全栈能力的创新突破,推出 Function AI(函数智能),精准攻克上述痛点问题,全面推动 AI 应用在开发至运维的全流程中实现降本增效。以下将从四个关键维度,详细阐述阿里云函数计算(FC)的核心解决方案。


01 函数计算 FC:Serverless 形态的 AI 基础设施


阿里云函数计算(FC)全新推出 Serverless AI 基础设施,以“高可用、低成本、零/低运维”为核心,为企业提供从模型部署到 Agent 开发的全栈解决方案。该平台通过 Serverless 架构的弹性特性与智能化资源管理,显著降低 AI 应用的开发复杂度与资源成本,助力企业快速实现 AI 落地。


1. 开发效率提升:无需关注底层资源,开发者可专注于业务逻辑,模型一键转换为 Serverless API。

2. 弹性资源调度:按需付费 + N 分之一卡资源分配(如 1/16 卡),GPU 部署成本降低 90% 以上。

3. 免运维特性:实例闲置时自动缩容至 0,资源利用率优化 60%,实现业务运维转型。

1763534825936_4328F36B-50BB-458e-BE1A-B8826A40CC45.png

02 核心能力发布:AgentRun 与模型服务、文生图服务


阿里云函数计算全新发布 FunctionAI,基于 Serverless 架构的企业级 AI 应用基础设施平台,实现从模型托管到 Agent 开发的全流程覆盖,显著降低技术门槛并提升跨平台适配性。


AgentRun 全流程解决方案

Agent Run[1]通过高代码与低代码结合,提升 AI 开发效率,支持主流开发生态。在部署阶段,提供轻量、灵活、安全隔离的 AI 运行时,支持多种模型和工具运行时,确保应用安全与扩展性。运维方面,Agent Run 具备全链路监控能力,免资源运维,实现业务运维转型。八大组件共同构建,助力开发者轻松构建企业级 AI 应用。

1763535253520_1103BD44-739E-41af-93D9-D06C0B58BB86.png

1. 全生命周期能力

  • 开发阶段:高代码 + 低代码模式,兼容阿里云百炼、CloudFlow、Dify 等生态,开发者可自由选择框架;
  • 部署阶段:轻量、灵活、安全隔离的运行时,支持大模型/垂类模型调用,提供安全沙箱隔离机制与 MCP/Function Call 协议双保障;
  • 运维阶段:全链路监控 + 端到端可观测性,定位问题并提供优化建议,实现免资源运维。

2. 技术架构优势

  • 百万级并发:基于 Session 亲和与多语言引擎,提供企业级沙箱服务能力;
  • 毫秒级弹性:内存快照技术实现 CPU 毫秒启动、GPU 秒级响应;
  • 成本降低 60%:支持 GPU/CPU/内存解耦配置(最小 0.25 CPU),实例闲置时自动缩容至 0,按需付费。

1763535278066_908EBC3D-D09D-421a-BFF3-50487152D8AE.png

大语言模型代理机制

多模型统一接入

  • 支持 Cloud、GPT、通义千问等 20 家主流大模型,实现开源模型一键部署;
  • 通过统一规范管理所有模型,解决 First Token 延迟与负载均衡问题。


动态模型治理

  • 自动切换机制:当主模型 First Token 时间过长或负载过高时,快速启用备用模型;
  • 并行处理能力:多模型并行执行,首个返回结果的模型优先作为主模型。

1763535332887_8BE110DD-3E55-43a3-B3E5-041B8FA48959.png

工具生态联动

1. 统一工具接口

  • 兼容 MCP/Function Call 协议,适配主流工具与第三方服务,API 集成时间从天级降至分钟级。


2. 智能工具管理

  • Tool Hub 插件市场:海量插件一键部署,快速构建业务场景;
  • 智能路由优化:通过语义分析前置筛选工具,降低调用时间(从 60 秒降至秒级)与 Token 消耗。

1763535360075_5422BC93-1B97-46ed-983E-F89886A42676.png

模型服务:AI 模型一键转化为 Serverless API

阿里云函数计算推出的模型服务[2],以 Serverless 架构为核心,通过生态兼容性、技术能力与成本优化三位一体,为企业提供从模型部署到服务调用的全链路解决方案。该服务显著降低 AI 应用开发门槛,同时保障高可用性与资源高效利用,助力企业快速构建生产级模型服务。

1763535401783_89905E7A-53C8-4387-A427-5719657E4507.png

  • 生态兼容性
  • 覆盖大语言模型与垂类模型,兼容 ModelScope、HuggingFace 等主流平台;
  • 支持 vLLM、SGLang、Ollama、Transformer 等技术架构的一键部署。
  • 技术能力
  • 提供 100+ 模型在线体验,200+ 模型一键部署;
  • 六大框架一键托管,与 Agent 服务无缝集成;
  • DevPod 在线环境支持代码调试与镜像自动构建,无需掌握 Dockerfile。
  • 成本优化
  • Serverless GPU 技术结合按量付费模式,N 分之一卡资源分配(如 1/16 卡);
  • 部署成本降低 90% 以上,资源闲置时不计费,支持百万级并发与毫秒级弹性;
  • 与 ComfyUI、Dify 等生态实现一键联动,消除资源预置顾虑。


文生图/声音/视频:多模态 AI 创作平台

多模态 AI 创作平台[3]以“零门槛生成”为核心,通过全链路工具与生态联动,覆盖电商设计、游戏渲染、营销物料、教育培训等全行业场景。平台提供开箱即用的文生图/视频/声音能力,结合高性价比算力与自动化资源管理,显著降低创作门槛与成本。

1763535433453_ADA12AEB-40E5-4694-9328-90C4A94C09F0.png

1. 文生图与文生视频

  • 集成 ComfyUI 与 Stable Diffusion 工具,解决本地部署复杂度与显存资源限制;
  • 支持全场景内容生成,从设计到渲染实现端到端自动化。


2. Lora 模型训练

  • 提供 Muse Lora 等专业训练器,覆盖数据标注到模型训练的全流程;
  • 适配垂类场景需求,快速生成定制化模型。


3. 企业级 Serverless API 调用

  • 一键部署 Stable Diffusion、ComfyUI 等模型,自动转换为 Serverless API;
  • 高性价比 GPU 弹性算力 + 自动扩容,支持同步/异步灵活切换。


03 Agent 最佳全栈实践:Function Q,你的云上助理


Function Q 是专业的函数计算智能助手,集成了基于大模型的代码自动生成、智能运维诊断和系统架构设计三大核心能力,显著提升 Serverless 应用的开发效率。整体技术栈基于函数计算 FC、API 网关、RocketMQ、SLS 等阿里云成熟基础服务构建,遵循云原生设计原则,提供企业级的高可用性、安全性和可观测性保障。

1763535477426_DCD76A10-6C54-45d2-BF7C-EF101614AAF4.png

1. 智能开发助手

  • 意图驱动部署:用户通过自然语言描述需求(如“获取本地天气”),Function Q 自动生成代码并部署至函数计算,提供按量付费的 API 接口;
  • 示例场景:输入“获取本地 IP”,Function Q 自动查询 API 并生成可调用服务,无需手动编写 Dockerfile 或配置资源。


2. 运维诊断专家

  • 问题自动分析:针对资源费用异常、函数运行错误等问题,调用 MCP 工具链定位根源并提供解决方案;
  • 实时监控支持:支持全链路可观测性,缩短故障排查周期,提升运维效率。


3. 架构设计顾问

  • 业务迁移指导:通过业务描述分析,推荐切分方法或整体打包策略,适配函数计算架构需求;
  • 场景覆盖:解决开发者对 Serverless 架构迁移路径的困惑,实现零门槛上云。


04 拥抱开源,与开源共成长


阿里云函数计算将坚定拥抱开源、与开源共成长。AI 并非单纯商业化产品,而是开放共赢的技术生态平台。当下,我们已与 Agentscope、LangChain、dify 等平台开展开源托管及代码集成工作。


未来,还有两大关键动作:一是开源 AgentRun SDK,助力快速集成上层开源框架;二是推出 model plugin,让所有垂类模型可像插件般,快速接入 dify、N8N、Stable Diffusion\ComfyUI 等现有生态。我们期望借此不仅拥抱开源,更能反哺开源,携手共进。


相关链接:

[1] Agent Run
https://fcnext.console.aliyun.com/agent-run

[2] 模型服务

https://fcnext.console.aliyun.com/fun-model

[3] 多模态 AI 创作平台

https://fcnext.console.aliyun.com/fun-art/explore

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
人工智能 运维 安全
阿里云函数计算 AgentRun 全新发布,构筑智能体时代的基础设施
阿里云推出以函数计算为核心的AgentRun平台,通过创新体系解决开发、部署、运维难题,提供全面支持,已在多个真实业务场景验证,是AI原生时代重要基础设施。
|
8天前
|
人工智能 缓存 安全
探秘 AgentRun丨动态下发+权限隔离,重构 AI Agent 安全体系
函数计算AgentRun提供双向凭证管理:入站控制“谁可调用”,出站保障“调用谁”的安全。支持动态更新、加密存储、本地缓存与自动注入,杜绝硬编码与泄露风险,无需重启服务。让开发者专注业务,安心落地AI Agent。
|
4月前
|
人工智能 自然语言处理 安全
SOFA AI 网关基于 Higress 的落地实践
SOFA 商业化团队为满足客户 AI 业务的发展需求,基于开源 Higress 内核构建,推出了 SOFA AI 网关,专为 SOFA 场景深度优化、能力增强,是面向 AI 需求的智能网关解决方案。
365 30
|
3月前
|
人工智能 自然语言处理 安全
Serverless AI 原生架构破局「三高」困境
在 AI 大模型浪潮席卷全球的今天,企业纷纷加速拥抱 AI,推动智能客服、内容生成、流程自动化等场景快速落地。然而,许多企业在实践中却遭遇了“三高困境”——成本高、复杂度高、风险高。Serverless AI 原生架构不仅是技术演进,更是企业智能化转型的关键基础设施。它让开发者聚焦业务逻辑,让企业告别“基建焦虑”,让 AI 真正“飞入寻常百姓家”。
|
4月前
|
人工智能 运维 安全
加速智能体开发:从 Serverless 运行时到 Serverless AI 运行时
在云计算与人工智能深度融合的背景下,Serverless 技术作为云原生架构的集大成者,正加速向 AI 原生架构演进。阿里云函数计算(FC)率先提出并实践“Serverless AI 运行时”概念,通过技术创新与生态联动,为智能体(Agent)开发提供高效、安全、低成本的基础设施支持。本文从技术演进路径、核心能力及未来展望三方面解析 Serverless AI 的突破性价值。
|
3月前
|
人工智能 运维 Serverless
ModelScope 模型一键上线?FunModel 帮你 5 分钟从零到生产
FunModel 依托 Serverless + GPU,天然提供了简单,轻量,0 门槛的模型集成方案,给个人开发者良好的玩转模型的体验,也让企业级开发者快速高效的部署、运维和迭代模型。在阿里云 FunModel 平台,开发者可以做到:模型的快速部署上线:从原来的以周为单位的模型接入周期降低到 5 分钟,0 开发,无排期;一键扩缩容,让运维不再是负担:多种扩缩容策略高度适配业务流量,实现“无痛运维”。
|
4月前
|
SQL 人工智能 关系型数据库
AI Agent的未来之争:任务规划,该由人主导还是AI自主?——阿里云RDS AI助手的最佳实践
AI Agent的规划能力需权衡自主与人工。阿里云RDS AI助手实践表明:开放场景可由大模型自主规划,高频垂直场景则宜采用人工SOP驱动,结合案例库与混合架构,实现稳定、可解释的企业级应用,推动AI从“能聊”走向“能用”。
1046 39
AI Agent的未来之争:任务规划,该由人主导还是AI自主?——阿里云RDS AI助手的最佳实践
|
21天前
|
存储 人工智能 监控
《生成式AI卓越架构设计指导原则》:从"能用AI"到"用好AI"
阿里云发布《生成式AI卓越架构设计指导原则》,围绕安全、稳定、效率、成本与性能五大支柱,助力企业构建可信赖、可持续演进的AI应用体系,推动AI从“能用”到“用好”的关键跨越。
《生成式AI卓越架构设计指导原则》:从"能用AI"到"用好AI"
|
4月前
|
机器学习/深度学习 人工智能 Serverless
吉利汽车携手阿里云函数计算,打造新一代 AI 座舱推理引擎
当前吉利汽车研究院人工智能团队承担了吉利汽车座舱 AI 智能化的方案建设,在和阿里云的合作中,基于星睿智算中心 2.0 的 23.5EFLOPS 强大算力,构建 AI 混合云架构,面向百万级用户的实时推理计算引入阿里云函数计算的 Serverless GPU 算力集群,共同为智能座舱的交互和娱乐功能提供大模型推理业务服务,涵盖的场景如针对模糊指令的复杂意图解析、文生图、情感 TTS 等。
|
4月前
|
人工智能 开发工具 开发者
单提交智能评审上线!用云效精准定位复杂 MR 代码问题
随着代码评审进入智能化时代,AI 已成为提升 Code Review 效率与代码质量的重要助手。但当一次合并请求(MR)包含大量提交或巨量变更时,把所有 diff 一次性交给 AI 审查,容易导致判断失真、遗漏细节或误解改动意图。为此,云效 Codeup 推出“单提交评审”模式,把每个 commit 作为独立评审单元,有针对性地结合 commit message 给出意见,有效解决大 MR 场景下的智能评审痛点。