函数计算的云上计费演进:从请求驱动到价值驱动,助力企业走向 AI 时代

本文涉及的产品
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
函数计算FC,每月15万CU 3个月
简介: 函数计算计费方式历经三阶段演进:从按请求计费,到按活跃时长毫秒级计费,再到按实际资源消耗分层计费。背后是资源调度、安全隔离与开发体验的持续优化。尤其在AI时代,低负载减免、会话亲和等技术让计费更贴近真实价值,推动Serverless向“按需使用、按量付费”终极目标迈进。

在云计算的发展过程中,计费方式往往是开发者最直观的感知。最初,用户需要直接购买资源,按小时计费;后来,函数计算将粒度细化到按请求执行的毫秒级。很多开发者第一次接触一款云产品时,关注的往往不是架构,而是账单。因为账单背后映射的,正是云厂商在 资源抽象、调度方式、安全隔离与开发体验 上的关键选择。

函数计算的演进史,其实也是一部计费方式的演化史。透过计费这一窗口,我们可以一管窥全豹,清晰地看到背后产品形态在技术与体验上的深刻变化,以及技术架构随应用场景不断演化的能力。

阶段一:从资源租用到按请求计费

在函数计算发展的最初阶段,最大突破点在于计费方式的根本转变:用户不再像租用虚拟机一样,为实例的持续运行付费,而是只在函数被真正调用、执行时支付费用。换句话说,在没有请求执行的时间段,用户无需承担任何闲置成本,这一阶段的创新,让“只为代码运行时刻付费”成为 Serverless 的立身之本,也迅速降低了开发者的使用门槛。如下图所示。

image.png

支撑这种计费模式的关键技术包括:

  1. 精准识别请求边界
    • 请求的生命周期就是计费的生命周期,平台必须在微秒/毫秒级准确地识别“开始”和“结束”,保证账单公平与精确。
  2. 按请求分配独占资源
    • 每个请求都获得确定的 CPU/内存资源,避免资源竞争导致性能抖动,从而保障账单的可控性。
  3. 低延时大并发的冷启动能力
    • 实例不常驻,而是按需启动。平台必须优化冷启动延时,在大规模并发场景下快速分配资源,同时在空闲时立即回收,避免浪费。
  4. 1ms完成活跃/闲置状态转化
    • 在无请求时通过冻结函数实例的 CPU 调度,转成闲置状态,确保不再消耗时间片,请求来到时候,实时转成活跃状态,允许CPU调度,这是实现毫秒级精确计费和公平性的保障。

这一阶段让函数计算真正区别于虚拟机和容器租用模式,奠定了“按请求计费”的核心心智模型。

阶段二:多并发 + 毫秒级计费 —— 面向 Web 应用的优化

随着函数计算逐渐普及,除了事件触发外,Web Server 等 I/O 型场景也开始被采用。如果继续采用单请求独占计费,对比传统多并发的服务模型,成本很难接受,因此进入了第二阶段的演化。

核心变化是:突破单并发限制,按函数实例的活跃时间段计费,并将粒度精细化到 1ms,从而支撑 Web 应用、API 服务等主流场景,如下图所示。
image.png

支撑这一演化的关键技术包括:

  1. 识别活跃时间段作为计费边界
    • 从“单请求时长”转变为“活跃区间”,只要实例内有请求在执行,即视为活跃计费,不管并发多少请求。
  2. 引入 Custom Runtime / Container Runtime
    • 支持用户平滑迁移主流 Web 框架(如 Express、Flask、Spring Boot),这些框架天然支持多并发,能够降低成本并收敛数据库连接数,减少连接暴涨带来的风险。
  3. 缩短计费粒度:从 100ms 到 1ms
    • 大多数 Web 请求延时低于 100ms,如果仍按 100ms 粒度计费,用户成本过高。精细化到 1ms,使账单更公平。
  4. 极致优化平台全链路延迟
    • Web 应用对端到端延迟极其敏感,平台必须在鉴权、路由、调度、转发等环节做性能优化,避免平台开销成为主要瓶颈。

这一阶段的价值在于:从“为单个请求买单”转变为“为活跃区间买单”,辅以更精细的粒度和运行时灵活性,让函数计算从事件驱动扩展到主流 Web/API 服务场景。

阶段三:按实际资源消耗计费 —— AI 时代的价值计费

AI 应用具有长会话、强交互、低延迟的特点:

  • 模型对话需要保持上下文;
  • 语音/流式生成需要实时响应;
  • 会话中可能包含多种工具调用与后台任务。

这类应用往往是 稀疏型负载:大多数时间处于低负载,仅维持长连接和上下文。传统“请求边界=活跃,闲置时冻结 CPU”的机制不再适配:如果一律计为活跃,用户在“低价值”的保活状态下将付出过高成本。

因此,第三阶段的核心转变是:在识别请求边界的基础上,引入按实际资源消耗动态区分“活跃/闲置”的计费模型。低负载状态下减免 CPU 费用,同时仍然允许 AI 应用运行后台任务。

image.png

支撑这种演化的关键技术包括:

  1. 支持会话亲和性
    • 引入会话亲和性机制,使得同一会话的请求路由到同一个实例,避免上下文丢失。
    • 用户可通过配置IdleTimeout主动控制会话保留时间(即将发布)。
  2. 按实际资源消耗判断活跃/闲置
    • 在过去“有请求=活跃”的基础上,引入根据资源利用率感知活跃/闲置的机制。
    • 如果 CPU 使用超过阈值,则记为“活跃”并计算CPU费用;如果只是心跳/轻量保活,CPU使用极低,则记为闲置,免去CPU费用,仅收内存/磁盘/网络成本。
  3. 执行期间低负载的减免机制
    • 在有请求执行时,函数计算以秒为周期采样,如果 CPU 使用低于阈值,自动减免该周期的 CPU 费用。
    • 在 MCP、WebSocket 等典型低负载场景默认启用,平台主动让利,避免“在线=计费”的粗暴逻辑。
  4. 支持不冻结,允许后台任务持续运行
    • 在 AI 场景中,冻结会导致长连接中断、缓存失效,恢复代价高。
    • 函数计算支持不冻结模式,允许请求结束后继续运行后台任务,如缓存预热、索引更新、回调处理。
    • 这类任务的费用仍然根据实际资源消耗判定为活跃或闲置,差异化计费。

第三阶段的价值在于:从“为活跃区间买单”进一步演化为“按资源消耗分层计费”,账单更好地对齐到有效计算,避免因长连接或低负载保活而产生额外成本,让 Serverless 真正适配 AI 时代的长会话与强交互负载。(由于GPU等异构资源的稀缺性,暂不纳入支持范围)

函数计算的演化方向是把产品形态与用户价值更紧密地对齐

函数计算的计费方式经历了三个阶段:

  • 阶段一:按请求计费 —— 降低门槛,让用户只为调用付费;
  • 阶段二:活跃区间计费 —— 扩展场景,让 Web/API 应用也能高效低成本运行;阶段三
  • 按资源消耗计费 —— 贴近价值,让 AI 应用在长会话与低负载下也能公平付费。

在 AI 时代,函数计算一直坚持走向“让开发者只关心业务逻辑,云厂商自动完成一切资源管理与调度”的愿景,最终让计算像水、电一样随时可得、按实际使用价值付费。

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
26天前
|
人工智能 自然语言处理 物联网
GEO优化方法有哪些?2025企业抢占AI流量必看指南
AI的不断重塑传统的信息入口之际,用户的搜索行为也从单一的百度、抖音的简单的查找答案的模式,逐渐转向了对DeepSeek、豆包、文心一言等一系列的AI对话平台的更加深入的探索和体验。DeepSeek的不断迭代优化同时,目前其月活跃的用户已破1.6亿,全网的AI用户规模也已超过6亿,这无疑为其下一阶段的迅猛发展提供了坚实的基础和广泛的市场空间。
|
25天前
|
人工智能 运维 关系型数据库
云栖大会|AI时代的数据库变革升级与实践:Data+AI驱动企业智能新范式
2025云栖大会“AI时代的数据库变革”专场,阿里云瑶池联合B站、小鹏、NVIDIA等分享Data+AI融合实践,发布PolarDB湖库一体化、ApsaraDB Agent等创新成果,全面展现数据库在多模态、智能体、具身智能等场景的技术演进与落地。
|
21天前
|
机器学习/深度学习 人工智能 数据安全/隐私保护
AI效果图竟能拿到融资!这家建筑AI企业4个月融了两轮,扎哈高管也去做顾问
累计融资610万欧元,从效果图场景切入的AI企业Gendo三阶段进化。
69 5
|
26天前
|
人工智能 自然语言处理 监控
2025年,开启GEO优化新时代,为企业抢占AI搜索先机
AI的不断重塑传统的信息入口之际,用户的搜索行为也从单一的百度、抖音的简单的查找答案的模式,逐渐转向了对DeepSeek、豆包、文心一言等一系列的AI对话平台的更加深入的探索和体验。DeepSeek的不断迭代优化同时,目前其月活跃的用户已破1.6亿,全网的AI用户规模也已超过6亿,这无疑为其下一阶段的迅猛发展提供了坚实的基础和广泛的市场空间。
|
25天前
|
人工智能 算法 搜索推荐
AI 搜索时代选 GEO 外援?十家服务商,企业看过来
随着AI普及,GEO(生成式引擎优化)成为品牌获客新赛道。本文推荐10家优质GEO服务商,涵盖内容优化、流量提升、合规风控等方向,助力企业提升在DeepSeek、豆包等AI模型中的曝光与推荐,实现智能时代的精准增长。
|
30天前
|
人工智能 供应链 搜索推荐
拔俗AI 智能就业咨询服务平台:求职者的导航,企业的招聘滤网
AI智能就业平台破解求职招聘困局:精准匹配求职者、企业与高校,打破信息壁垒。简历诊断、岗位推荐、技能提升一站式服务,让就业更高效。
|
23天前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
335 29
|
1月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
374 22
|
2月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
694 32

相关产品

  • 函数计算