Serverless 加 AI 让应用开发更简单

本文涉及的产品
函数计算FC,每月15万CU 3个月
简介: 本文介绍了 Serverless 技术在 AI 领域的应用及 FunctionAI 平台的功能与优势。首先探讨了 Serverless 解决的核心问题,包括降低成本和提升效率。接着分析了构建 AI 应用的阻碍因素,如技术积累不足、大模型迭代快及算力资源有限。FunctionAI 平台通过按需模型托管、一键部署、流程式开发工具和灵活组装能力,帮助企业降低试错成本并提高开发效率。平台架构分为四层,涵盖模型层、开发层、服务层和部署层。实际应用场景包括图像生成、外部开发者支持及大流量处理等。最后,通过客户案例展示了平台在弹性扩展与成本优化方面的价值。

一、Serverless 在解决什么问题?

Serverless 在解决什么问题?其实,Serverless 计算领域主要是 FaaS(Function as a Service)部分,它核心关注的是按需付费、极简运维以及灵活定制等能力,这正是 Serverless 的核心特性。因此,其目标非常明确且易于拆解,主要包括两个方向。

第一个目标是帮助用户降低成本。就 AI 领域而言,即通过 Serverless 技术降低用户在使用 AI 过程中的整体成本。

第二个目标是提升效率,也就是如何让 AI 开发变得更加简单。

二、构建 AI 应用过程中的阻碍因素

那么构建 AI 应用过程中存在哪些阻碍因素呢?首先是 AI 技术积累不足的问题。大家可能听过一句话:“2018 年前学习 AI 的那批人的知识已经过时了,甚至应该被清零。”这是我从其他演讲中获取的一个观点。目前来看,AI 领域的知识积累仍显不足。例如当前流行的 MCP 协议、Google 最近发布的 A-to-A 协议,各类新协议层出不穷。由此可见,AI 技术本身也面临技术积累不足的挑战,这是由现实条件决定的。

其次,大模型更新迭代速度非常快。现在的大模型几乎是以天甚至小时为单位进行更新,不断有新的模型刷新榜单。各大模型领域的竞争异常激烈。如何更好地使用这些大模型,或者如何更高效地运行这些大模型,也成为 AI 应用落地的一大障碍。

此外,还存在一些客观限制因素。例如由于种种原因,开发者常常面临算力资源不足的问题;落地场景有限、落地效果不佳、预期与实际不符,以及 GPU 成本高昂等因素,都是构建 AI 应用过程中的核心挑战。

三、FunctionAI 平台的主要工作

FunctionAI 平台的主要工作就是围绕企业在使用 AI 过程中出现的这些问题,帮助企业降低试错成本,提升开发与运维效率,并满足灵活定制的需求,使部署流程更加易用。主要完成以下几个方面的任务:

第一,结合 Serverless 算力,FunctionAI 平台推出了按需模型托管服务。比如可以在FunctionAI 平台上一键部署开源的 32B Qwen 模型,实现完全私有化部署。这一功能旨在有效降低使用成本。

第二,在应用部署阶段,FunctionAI 平台提供了一键极速托管能力。FunctionAI 平台内置大量 Sample 和模型代码块,用户只需点击编辑或创建按钮,即可快速构建所需功能。

第三,FunctionAI 平台提供流程式开发工具。流程开发在过去可能让人感到困惑,但如今已有显著进展。Agent 分为两类:一类是 LLM Agent,完全由大语言模型控制,例如 MCP 或 Function Calling 类调用;另一类是半托管模式的 Flow,FunctionAI 平台通过强管控的流程机制规范 LLM 的确定性调用。

第四,FunctionAI 平台提供灵活组装能力,支持便捷的二次开发。这部分主要依托于FunctionAI 平台整体的应用开发框架。

四、一站式 Serverless AI 应用开发平台

繁琐的资源调整、耗时的部署流程、AI 算力供给不足等问题,促使阿里云推出了云应用开发平台,为 Serverless AI 应用开发提供一站式解决方案。FunctionAI 平台中的组件通过模块化封装的方式,共同完成 AI 应用的开发。同时,流程编排与数据互补机制,使开发者专注于业务逻辑,无需关心底层基础设施。以部署 RAG 应用为例,用户只需挑选模板并进行简单配置,即可一键启动一个强大的 AI 问答应用。该应用包含在线智能问答与离线数据处理功能。当上传知识库至阿里云对象存储后,系统将自动触发离线数据处理流程,从对象存储提取知识库数据并对文档进行分段处理,并将分割后的文本片段进行向量化处理后存储至向量数据库。每个流程节点均可灵活替换,例如在模型选择上,既可使用托管模型,也可调用第三方模型 API。当与机器人进行对话时,系统会自动从知识库中检索相关信息作为上下文,辅助机器人做出更精准的回答。

五、FunctionAI 平台的架构设计

该平台的核心理念是通过可插拔模块实现组件高度聚合与灵活调度。整个架构大致分为四层。

第一层为基础层,即模型层。FunctionAI 平台将基于 Serverless 算力提供便捷的模型托管服务。

第二层为开发层,包括插件(Plugin),类似于 MCP 服务,还包括 Vector 数据库、关系型数据库等数据库类集成。

第三层为服务层。除了可以直接在模型层进行托管外,FunctionAI 平台单独抽离出一个模型服务层,以便运行用户的自定义或业务相关的零散代码。

第四层为部署层,FunctionAI 平台引入“部署”概念,通过一键方式拉起各层级资源。

最后一层为应用层,在现有 Cap 或Function AI 平台上看到的模板列表。该层构成了云原生应用平台整体的FunctionAI 架构。

六、FunctionAI 平台的三大核心任务

Function AI 主要做三件事。第一件事是对 G5 化模块进行封装,所有模块均通过 API 接口进行对接与交互,FunctionAI 平台称之为结构化封装。第二件事是通过流程机制串联各个接口,组合成新的应用,FunctionAI 平台称之为流程式编排与组装应用。第三件事是针对应用进行开发与调试,帮助用户构建完整的 AI 应用。

七、FunctionAI 平台的实际应用场景

接下来将重点介绍FunctionAI 平台的一些实际应用场景。FunctionAI 平台支持多种类型的应用,包括 Web 应用、RAG 应用、Chatbot 应用以及图像生成应用。用户可以通过一键部署方式快速启动应用,再结合二次开发能力,如服务可插拔、业务定制、流程编排等功能进行进一步优化与部署。

此外,平台还包括了组装式研发机制。组装式研发大致分为四个层级。第一层级为模型服务,包括应用中心创建与多账号设置。第二部分为流程编排,即将所有组件通过流程方式进行组合构建。第三部分为模型服务,提供模型测试调用与日志查询等基础能力。第四部分为 RAG 场景,即线上检索场景下的数据库托管,支持安全发布、灰度发布及多环境部署,同时还包括日志追踪与指标查询等拓展能力。

八、Serverless 运行时:让业务成本更低,开发效率更高

Serverless 运行时:让业务成本更低,开发效率更高

Serverless 运行时是FunctionAI 平台的重要组成部分。FunctionAI 平台专注于极致弹性、按需付费与线上加速。Serverless 运行时的目标是为企业用户提供最优成本与更高开发效率。FunctionAI 平台预置了大量 CPU 镜像,助力用户更高效地开展业务开发。这是FunctionAI 平台的 Serverless 运行时能力。

其次是流程服务。流程服务是FunctionAI 平台提供的流程开发工具,用于数据编排、业务编排或应用编排。它提供图形化界面,帮助用户将组件通过流程方式串联,共同构建业务流程。

第四部分是函数服务。函数服务目前已集成超过百款云产品试验能力,提供便捷的运维开发支持,并采用先进架构设计,资源利用率可达百分之百,用户无需进行容量管理。这是函数服务在月度开发场景下所提供的优质服务。

最后是模型服务。模型服务是FunctionAI 平台重点推出的功能模块,也是用户普遍关注的部分。其产品价值非常清晰:低延迟、降成本、保交付。这三个关键词基本满足了用户对模型托管的大部分需求。

模型服务支持多种模型来源,包括 ModelScope Hugging Face、OSS 以及自定义镜像。同时支持多种加速框架,如 VLM、HGM、Ollma 等,这些模型服务通过平台提供交付保障。

应用场景包括通过模型服务实现 LM 图像生成、 Stable Diffusion 应用、在线推理(如 OCR、NLP、TTS)等传统模型任务。因此,模型服务是FunctionAI 平台当前主推的核心服务之一。

九、FunctionAI 客户案例

客户需求主要分为两类。第一类为图像生成应用,如文生图。FunctionAI 平台重点关注 ComfyUI 与 SD/Flask 等可通过 API 调用的技术。ComfyUI 提供完整交互方案,封装为 API,实现弹性与按需付费。FunctionAI 平台接触到的客户中,文生图相关占比较高,许多设计师希望定制自己的工作助手。例如,某用户希望通过 Prompt 构建 ComfyUI 流程串联多个 Prompt 或进行图像编辑。此时若无合适工作空间或第三方服务无法满足需求,客户便会寻求FunctionAI 平台的帮助部署 ComfyUI,FunctionAI 平台通过组件组合方式交付完整操作系统。

第二类典型场景为外部开发者。他们通过Function AI 构建前端组件,完成外部服务。例如某在线文档产品通过平台构建前端组件,实现出色服务体验。后续实践中也将有机会体验平台的外部服务模块,提供端到端访问能力。

第三类场景适用于大容量突发流量,如直播截图处理。客户通过平台实现异步调度,将截图传递至下游业务,推动整体业务发展。

第四类为森马项目,主要用于在线业务设计,场景多为 Stable Diffsuion 加定制化。客户通过FunctionAI 平台的 Serverless API 实现弹性扩展与调度,降低图像生成成本。

此外,FunctionAI 平台也在积极拓展 MCP 功能。近期推出的 MCP 服务结合 Serverless 特性,将传统 API 转换为 MCP Server 形式供 AGI 调用。

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
相关文章
|
1月前
|
存储 人工智能 关系型数据库
4年10亿美金,Neon用Serverless PG证明:AI需要的不是“大”,而是“隐形”
AnalyticDB PostgreSQL 版基于Neon架构隆重推出满足 AI 时代应用开发需求的Serverless版本,并且在这之上搭载了结构化分析、向量检索、BM25全文检索和图检索,通过一套引擎满足 AI 应用丰富的数据诉求,支持MCP和OpenAI协议,为企业全面拥抱 AI 配备了数据存储、分析和应用的 “关键” 能力,帮助企业火箭式启动跑赢时代。
|
2月前
|
人工智能 开发框架 安全
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
326 30
|
2月前
|
SQL 人工智能 安全
当 MCP 遇上 Serverless,AI 时代的最佳搭档
随着 AI 技术的飞速发展,MCP(模型上下文协议) 逐渐崭露头角。这项由 Anthropic 公司(Claude 的创造者)于 2024 年 11 月推出的开放协议,正在重新定义 AI 与数字世界的交互方式。这项开放协议不仅让 AI 突破传统对话边界,更赋予其执行现实任务的能力,堪称人工智能向"行动智能体"进化的里程碑。然而从火热概念到落地业务,MCP 还需要找到云端“好搭档”。
748 76
|
1月前
|
人工智能 运维 安全
阿里云 Serverless 助力海牙湾构建弹性、高效、智能的 AI 数字化平台
海牙湾(G-Town)是一家以“供应链+场景+技术+AI”为核心驱动力的科技公司,致力于为各行业提供数字化转型解决方案。通过采用阿里云Serverless架构,解决了弹性能力不足、资源浪费与运维低效的问题。SAE全托管特性降低了技术复杂度,并计划进一步探索Serverless与AI结合,推动智能数字化发展。海牙湾业务覆盖金融、美妆、能源等领域,与多家知名企业建立战略合作,持续优化用户体验和供应链决策能力,保障信息安全并创造可量化的商业价值。未来,公司将深化云原生技术应用,助力更多行业实现高效数字化转型。
191 19
|
23天前
|
数据采集 人工智能 算法
面向AI应用开发的开源能源管理系统
人工智能在能源管理中发挥关键作用,通过优化资源分配、智能消费管理、精准监测预测以及改善客户体验等多方面推动行业转型。MyEMS作为重要工具,基于Python语言集成AI技术,实现数据采集处理、负荷预测、能源优化控制、故障诊断预警及可视化展示等功能,提供全面智能化解决方案,助力可持续发展与能源效率提升。
44 0
|
2月前
|
人工智能 开发框架 运维
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
Serverless MCP 运行时业界首发,函数计算支持阿里云百炼 MCP 服务!阿里云百炼发布业界首个全生命周期 MCP 服务,无需用户管理资源、开发部署、工程运维等工作,5 分钟即可快速搭建一个连接 MCP 服务的 Agent(智能体)。作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力。
255 0
 Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
|
2月前
|
人工智能 自然语言处理 数据可视化
89.4K star!这个开源LLM应用开发平台,让你轻松构建AI工作流!
Dify 是一款开源的 LLM 应用开发平台,通过直观的可视化界面整合 AI 工作流、RAG 管道、智能代理等功能,助你快速实现从原型到生产的跨越。支持本地部署和云端服务,提供企业级功能与完整 API 接口。
114 4
|
1月前
|
开发框架 人工智能 Java
破茧成蝶:阿里云应用服务器让传统 J2EE 应用无缝升级 AI 原生时代
本文详细介绍了阿里云应用服务器如何助力传统J2EE应用实现智能化升级。文章分为三部分:第一部分阐述了传统J2EE应用在智能化转型中的痛点,如协议鸿沟、资源冲突和观测失明;第二部分展示了阿里云应用服务器的解决方案,包括兼容传统EJB容器与微服务架构、支持大模型即插即用及全景可观测性;第三部分则通过具体步骤说明如何基于EDAS开启J2EE应用的智能化进程,确保十年代码无需重写,轻松实现智能化跃迁。
263 40
|
24天前
|
人工智能 数据挖掘
🔔阿里云百炼智能体和工作流可以发布为组件了,AI应用变成“搭积木”
本文介绍了如何通过智能体组件化设计快速生成PPT。首先,创建一个“PPT大纲生成”智能体并发布为组件,该组件可根据用户输入生成结构清晰的大纲。接着,在新的智能体应用中调用此组件与MCP服务(如ChatPPT),实现从大纲到完整PPT的自动化生成。整个流程模块化、复用性强,显著降低AI开发门槛,提升效率。非技术人员也可轻松上手,满足多样化场景需求。
🔔阿里云百炼智能体和工作流可以发布为组件了,AI应用变成“搭积木”
|
1月前
|
人工智能 数据挖掘 大数据
“龟速”到“光速”?算力如何加速 AI 应用进入“快车道”
阿里云将联合英特尔、蚂蚁数字科技专家,带来“云端进化论”特别直播。
86 11