阿里云函数计算 GPU 宣布降价,最高幅度达 93%,阶梯计费越用越便宜!

简介: 自2023年9月1日0时起,阿里云函数计算的 GPU 使用量和函数调用次数宣布降价。本次降价幅度达到10%~93%,并且通过阶梯计费模式帮助客户在使用函数计算时,越用越便宜。

自2023年9月1日0时起,阿里云函数计算GPU 使用量函数调用次数宣布降价。本次降价幅度达到10%~93%,并且通过阶梯计费模式帮助客户在使用函数计算时,越用越便宜

image.png


GPU 降幅高达 93%,轻松应对 AIGC 算力压力

2023 年,生成式 AI 迎来了集中爆发,同时带动 GPU 需求不断上涨,GPU 算力缺、算力贵的问题让很多希望在AI 领域有所建树的企业用户、创业者和个人开发者望而生畏,难以快速拥抱 AI 带来的技术红利。

阿里云函数计算持续在 Serverless GPU 方面投入研发,拥有极致弹性的 GPU 实例,以及支持更大规格的性能实例,为承载 AI 应用稳定、高性能推理提供重要支撑。9月1日0时起,函数计算 GPU 迎来超大幅度降价,降幅高达 84%-93%。计费项实行阶梯累计计费模式,从而帮助客户在使用函数计算 GPU 时可以越用越便宜。

image.png

计费详情请参考:https://help.aliyun.com/zh/fc/product-overview/bill-change


GPU 降价后,两个重要变化

函数计算试用额度,GPU 提升 900%

函数计算新开通用户免费试用额度中 GPU 额度提升 900%,内存使用量和函数调用次数均提升 100%,总价值升至180元,老客户(2023年04月06日20:00之前开通函数计算的用户)可9.9元享同等额度的老客户专享套餐,试用 AIGC 应用更省,更放心!

image.png

以 Stable Diffusion 部署的典型函数资源配置(GPU 16 GB、vCPU 8 核、内存 32 GB)为例,生成图片 GPU 资源耗费最多:

  • 降价前:
  • 生成图片数量:基于GPU额度,可生成 1250 张图。
  • 使用时长:基于GPU额度,可使用 Stable Diffusion 约为1.7小时

CPU使用量(vCPU*秒)

内存使用量(GB*秒)

GPU使用量(GB*秒)

8 * ( 60 + 5 ) = 520

32 * ( 60 + 5 ) = 2080

16 * ( 60 + 5 ) = 1040

40

160

80

前50W资源免费

前100W资源免费

前10W资源免费

500000/40 = 12500张

1000000/160 = 6250张

100000/80 = 1250张

17.36小时

8.68小时

1.73小时


  • 降价后:
  • 生成图片数量:基于GPU额度,生成约为12500张图。
  • 使用时长:基于GPU额度,可使用Stable Diffusion 约为 17.36 小时

CPU(vCPU-S)

MEM(GB-S)

GPU(GB-S)

8 * ( 60 + 5 ) = 520

32 * ( 60 + 5 ) = 2080

16 * ( 60 + 5 ) = 1040

40

160

80

前50W资源免费

前200W资源免费

前100W资源免费

500000/40 = 12500张

2000000/160 = 12500张

1000000/80 = 12500张

17.36小时

17.36小时

17.36小时


注明:该数据仅为测试数据,任一计费项超过试用额度后开始按目录价计费


函数计算一键部署 Stable Diffusion:

https://developer.aliyun.com/adc/scenario/b2cc0e1c3a6244e0bd9fc0f37acd5a0e


函数调用次数降幅高达 80%,调用更省无压力

函数计算根据每月的函数调用次数计费。函数调用次数费用=函数调用次数×单价。9月1日0时起,函数计算迎来超大幅度降调用次数实行阶梯累计计费模式,本次降幅达 10%-80%。

image.png


计费详情请参考:https://help.aliyun.com/zh/fc/product-overview/bill-change

资源包购买:https://account.aliyun.com/login/login.htm?oauth_callback=https%3A%2F%2Fcommon-buy.aliyun.com%2F%3Fspm%3D5176.137990.J_5253785160.6.6f1116084yp0CE%26commodityCode%3Dfc_bag_dp_cn

Serverless 解决 AIGC 商业化问题的下一个拼图

基于 Serverless + AIGC 能力,可以帮助用户实现围绕大型模型能力快速构建应用。函数计算提供高效开发工具,让用户将模型转化为服务的能力更加简单。通过 Serverless 平台,用户可能不需要太多的开发背景,只需了解其中的一些细节就可以快速设置并使用。

函数计算致力于为 AI 开发者、企业提供高效能、低成本的 AI 应用开发与部署服务。Serverless 架构具备高资源利用率与按量付费模式、服务端免运维等特性,让开发者真正实现 0 技术门槛开发 AIGC 应用,期待越来越多用户可以在函数计算之上实现高效开发,快步拥抱 AIGC 带来的技术红利!




参与活动有奖

一、森马X阿里云 AIGC T 恤设计大赛进行中!

8月21日至9月21日,程序员 AIGC 自己的 T 恤,赢 Airpods,图案定制 T 恤!

通过函数计算 FC 快捷部署 Stable Diffusion:内置模型库+常用插件+ControlNet,支持 SDXL1.0。

立即参加:https://developer.aliyun.com/adc/series/activity/aigc_design

可赢取 Airpods 三代,作品定制联名T恤,森马行李箱等周边!

二、参与话题

还可以参加话题活动,一起讨论 AIGC 的未来发展趋势,用户可从任意角度交流分享,可以赢得护眼台灯、数据线、静音净化器奖品!

话题:《相比优秀的服装设计师,AIGC 可以如何突破设计灵感的界限?是纯粹的机械语言还是一点点的灵光乍现?

话题链接:

https://developer.aliyun.com/ask/548537?spm=a2c6h.13148508.setting.14.4a894f0esFcznR

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
8月前
|
人工智能 Serverless API
函数计算的云上计费演进:从请求驱动到价值驱动,助力企业走向 AI 时代
函数计算计费方式历经三阶段演进:从按请求计费,到按活跃时长毫秒级计费,再到按实际资源消耗分层计费。背后是资源调度、安全隔离与开发体验的持续优化。尤其在AI时代,低负载减免、会话亲和等技术让计费更贴近真实价值,推动Serverless向“按需使用、按量付费”终极目标迈进。
|
8月前
|
人工智能 Serverless API
函数计算的云上计费演进:从请求驱动到价值驱动,助力企业走向 AI 时代
在 AI 时代,函数计算一直坚持走向“让开发者只关心业务逻辑,云厂商自动完成一切资源管理与调度”的愿景,最终让计算像水、电一样随时可得、按实际使用价值付费。
|
10月前
|
人工智能 运维 Serverless
GPU 降成本免运维,睿观 AI 助手选择函数计算
从跨境电商 ERP 到“睿观 AI 助手”,阿里云函数计算的支持下,深圳三态股份利用 AI 技术快速完成专利、商标、版权等多维度的侵权风险全面扫描。结合函数计算实现弹性算力支持,降低成本并提升效率,实现业务的快速发展。
|
12月前
|
人工智能 Serverless API
MCP Server 之旅第 4 站: 长连接闲置计费最高降低87%成本的技术内幕
阿里云函数计算(FC)提供事件驱动的全托管计算服务,支持 MCP Server 场景优化。通过 [MCP Runtime](https://mp.weixin.qq.com/s/_DSMRovpr12kkiQUYDtAPA),实现 Stdio MCP Server 一键托管,并借助亲和性调度解决 Session 保持问题。针对 MCP Server 的稀疏调用特性,函数计算引入长连接闲置计费机制,在毫秒级计费基础上,显著降低资源闲置成本(最高可达87%)。用户可通过控制台或 API 开启该功能,Websocket 长请求场景亦默认支持。此方案有效提升资源利用率,为用户提供灵活、经济的计算服务。
|
人工智能 架构师 容灾
函数计算 FC:首发 GPU 极速模式,更弹性、更降本
函数计算 FC:首发 GPU 极速模式,更弹性、更降本
229 5
|
人工智能 运维 Serverless
Serverless GPU:助力 AI 推理加速
Serverless GPU:助力 AI 推理加速
642 1
|
存储 文件存储 对象存储
AI 场景下,函数计算 GPU 实例模型存储最佳实践
AI 场景下,函数计算 GPU 实例模型存储最佳实践
393 0
|
7月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
754 30
|
8月前
|
存储 人工智能 Serverless
函数计算进化之路:AI 应用运行时的状态剖析
AI应用正从“请求-响应”迈向“对话式智能体”,推动Serverless架构向“会话原生”演进。阿里云函数计算引领云上 AI 应用 Serverless 运行时技术创新,实现性能、隔离与成本平衡,开启Serverless AI新范式。
806 12
|
SQL 分布式计算 Serverless
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
鹰角网络为应对游戏业务高频活动带来的数据潮汐、资源弹性及稳定性需求,采用阿里云 EMR Serverless Spark 替代原有架构。迁移后实现研发效率提升,支持业务快速发展、计算效率提升,增强SLA保障,稳定性提升,降低运维成本,并支撑全球化数据架构部署。
1361 56
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用

相关产品

  • 函数计算