一、Serverless 在解决什么问题?
Serverless 在解决什么问题?其实,Serverless 计算领域主要是 FaaS(Function as a Service)部分,它核心关注的是按需付费、极简运维以及灵活定制等能力,这正是 Serverless 的核心特性。因此,其目标非常明确且易于拆解,主要包括两个方向。
第一个目标是帮助用户降低成本。就 AI 领域而言,即通过 Serverless 技术降低用户在使用 AI 过程中的整体成本。
第二个目标是提升效率,也就是如何让 AI 开发变得更加简单。
二、构建 AI 应用过程中的阻碍因素
那么构建 AI 应用过程中存在哪些阻碍因素呢?首先是 AI 技术积累不足的问题。大家可能听过一句话:“2018 年前学习 AI 的那批人的知识已经过时了,甚至应该被清零。”这是我从其他演讲中获取的一个观点。目前来看,AI 领域的知识积累仍显不足。例如当前流行的 MCP 协议、Google 最近发布的 A-to-A 协议,各类新协议层出不穷。由此可见,AI 技术本身也面临技术积累不足的挑战,这是由现实条件决定的。
其次,大模型更新迭代速度非常快。现在的大模型几乎是以天甚至小时为单位进行更新,不断有新的模型刷新榜单。各大模型领域的竞争异常激烈。如何更好地使用这些大模型,或者如何更高效地运行这些大模型,也成为 AI 应用落地的一大障碍。
此外,还存在一些客观限制因素。例如由于种种原因,开发者常常面临算力资源不足的问题;落地场景有限、落地效果不佳、预期与实际不符,以及 GPU 成本高昂等因素,都是构建 AI 应用过程中的核心挑战。
三、FunctionAI 平台的主要工作
FunctionAI 平台的主要工作就是围绕企业在使用 AI 过程中出现的这些问题,帮助企业降低试错成本,提升开发与运维效率,并满足灵活定制的需求,使部署流程更加易用。它主要完成以下几个方面的任务:
第一,结合 Serverless 算力,FunctionAI 平台推出了按需模型托管服务。比如可以在FunctionAI 平台上一键部署开源的 32B Qwen 模型,实现完全私有化部署。这一功能旨在有效降低使用成本。
第二,在应用部署阶段,FunctionAI 平台提供了一键极速托管能力。FunctionAI 平台内置大量 Sample 和模型代码块,用户只需点击编辑或创建按钮,即可快速构建所需功能。
第三,FunctionAI 平台提供流程式开发工具。流程开发在过去可能让人感到困惑,但如今已有显著进展。Agent 分为两类:一类是 LLM Agent,完全由大语言模型控制,例如 MCP 或 Function Calling 类调用;另一类是半托管模式的 Flow,FunctionAI 平台通过强管控的流程机制规范 LLM 的确定性调用。
第四,FunctionAI 平台提供灵活组装能力,支持便捷的二次开发。这部分主要依托于FunctionAI 平台整体的应用开发框架。
四、一站式 Serverless AI 应用开发平台
繁琐的资源调整、耗时的部署流程、AI 算力供给不足等问题,促使阿里云推出了云应用开发平台,为 Serverless AI 应用开发提供一站式解决方案。FunctionAI 平台中的组件通过模块化封装的方式,共同完成 AI 应用的开发。同时,流程编排与数据互补机制,使开发者专注于业务逻辑,无需关心底层基础设施。以部署 RAG 应用为例,用户只需挑选模板并进行简单配置,即可一键启动一个强大的 AI 问答应用。该应用包含在线智能问答与离线数据处理功能。当上传知识库至阿里云对象存储后,系统将自动触发离线数据处理流程,从对象存储提取知识库数据并对文档进行分段处理,并将分割后的文本片段进行向量化处理后存储至向量数据库。每个流程节点均可灵活替换,例如在模型选择上,既可使用托管模型,也可调用第三方模型 API。当与机器人进行对话时,系统会自动从知识库中检索相关信息作为上下文,辅助机器人做出更精准的回答。
五、FunctionAI 平台的架构设计
该平台的核心理念是通过可插拔模块实现组件高度聚合与灵活调度。整个架构大致分为四层。
第一层为基础层,即模型层。FunctionAI 平台将基于 Serverless 算力提供便捷的模型托管服务。
第二层为开发层,包括插件(Plugin),类似于 MCP 服务,还包括 Vector 数据库、关系型数据库等数据库类集成。
第三层为服务层。除了可以直接在模型层进行托管外,FunctionAI 平台单独抽离出一个模型服务层,以便运行用户的自定义或业务相关的零散代码。
第四层为部署层,FunctionAI 平台引入“部署”概念,通过一键方式拉起各层级资源。
最后一层为应用层,在现有 Cap 或Function AI 平台上看到的模板列表。该层构成了云原生应用平台整体的FunctionAI 架构。
六、FunctionAI 平台的三大核心任务
Function AI 主要做三件事。第一件事是对 G5 化模块进行封装,所有模块均通过 API 接口进行对接与交互,FunctionAI 平台称之为结构化封装。第二件事是通过流程机制串联各个接口,组合成新的应用,FunctionAI 平台称之为流程式编排与组装应用。第三件事是针对应用进行开发与调试,帮助用户构建完整的 AI 应用。
七、FunctionAI 平台的实际应用场景
接下来将重点介绍FunctionAI 平台的一些实际应用场景。FunctionAI 平台支持多种类型的应用,包括 Web 应用、RAG 应用、Chatbot 应用以及图像生成应用。用户可以通过一键部署方式快速启动应用,再结合二次开发能力,如服务可插拔、业务定制、流程编排等功能进行进一步优化与部署。
此外,平台还包括了组装式研发机制。组装式研发大致分为四个层级。第一层级为模型服务,包括应用中心创建与多账号设置。第二部分为流程编排,即将所有组件通过流程方式进行组合构建。第三部分为模型服务,提供模型测试调用与日志查询等基础能力。第四部分为 RAG 场景,即线上检索场景下的数据库托管,支持安全发布、灰度发布及多环境部署,同时还包括日志追踪与指标查询等拓展能力。
八、Serverless 运行时:让业务成本更低,开发效率更高
Serverless 运行时:让业务成本更低,开发效率更高
Serverless 运行时是FunctionAI 平台的重要组成部分。FunctionAI 平台专注于极致弹性、按需付费与线上加速。Serverless 运行时的目标是为企业用户提供最优成本与更高开发效率。FunctionAI 平台预置了大量 CPU 镜像,助力用户更高效地开展业务开发。这是FunctionAI 平台的 Serverless 运行时能力。
其次是流程服务。流程服务是FunctionAI 平台提供的流程开发工具,用于数据编排、业务编排或应用编排。它提供图形化界面,帮助用户将组件通过流程方式串联,共同构建业务流程。
第四部分是函数服务。函数服务目前已集成超过百款云产品试验能力,提供便捷的运维开发支持,并采用先进架构设计,资源利用率可达百分之百,用户无需进行容量管理。这是函数服务在月度开发场景下所提供的优质服务。
最后是模型服务。模型服务是FunctionAI 平台重点推出的功能模块,也是用户普遍关注的部分。其产品价值非常清晰:低延迟、降成本、保交付。这三个关键词基本满足了用户对模型托管的大部分需求。
模型服务支持多种模型来源,包括 ModelScope Hugging Face、OSS 以及自定义镜像。同时支持多种加速框架,如 VLM、HGM、Ollma 等,这些模型服务通过平台提供交付保障。
应用场景包括通过模型服务实现 LM 图像生成、 Stable Diffusion 应用、在线推理(如 OCR、NLP、TTS)等传统模型任务。因此,模型服务是FunctionAI 平台当前主推的核心服务之一。
九、FunctionAI 客户案例
客户需求主要分为两类。第一类为图像生成应用,如文生图。FunctionAI 平台重点关注 ComfyUI 与 SD/Flask 等可通过 API 调用的技术。ComfyUI 提供完整交互方案,封装为 API,实现弹性与按需付费。FunctionAI 平台接触到的客户中,文生图相关占比较高,许多设计师希望定制自己的工作助手。例如,某用户希望通过 Prompt 构建 ComfyUI 流程串联多个 Prompt 或进行图像编辑。此时若无合适工作空间或第三方服务无法满足需求,客户便会寻求FunctionAI 平台的帮助部署 ComfyUI,FunctionAI 平台通过组件组合方式交付完整操作系统。
第二类典型场景为外部开发者。他们通过Function AI 构建前端组件,完成外部服务。例如某在线文档产品通过平台构建前端组件,实现出色服务体验。后续实践中也将有机会体验平台的外部服务模块,提供端到端访问能力。
第三类场景适用于大容量突发流量,如直播截图处理。客户通过平台实现异步调度,将截图传递至下游业务,推动整体业务发展。
第四类为森马项目,主要用于在线业务设计,场景多为 Stable Diffsuion 加定制化。客户通过FunctionAI 平台的 Serverless API 实现弹性扩展与调度,降低图像生成成本。
此外,FunctionAI 平台也在积极拓展 MCP 功能。近期推出的 MCP 服务结合 Serverless 特性,将传统 API 转换为 MCP Server 形式供 AGI 调用。