为什么 Serverless 能提升资源利用率?

本文涉及的产品
应用实时监控服务-可观测链路OpenTelemetry版,每月50GB免费额度
容器镜像服务 ACR,镜像仓库100个 不限时长
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: 如何提升资源利用率?弹性伸缩和混部超卖是一种有效提升方式,Serverless 提供一种托管产品形态的解决方案,让业务开发者更多精力投入前端开发应用,更好地提高应用的体验效果。

1.jpeg木吴|阿里云智能高级技术专家

业务的负载往往不是一成不变的,而是随着时间呈现一定的上下波动。传统的应用构建方式一般是备足充分的资源以保障业务可用性,造成资源利用率不高的现象。随着容器技术的普及,应用可以通过弹性伸缩或者应用混部的方式来提升资源利用率,但由于资源管理的复杂度,难以在业务可用性和资源利用率上取得较好的平衡。

Serverless 平台的出现,将资源管理的责任从用户侧转移到平台侧。这种责任转移能够让用户专注在业务开发上,而平台本身利用其资源规模和负载多样性的优势,专注在资源利用率的提升上。业务使用 Serverless 平台能够大幅提升资源利用率,实现降本提效的效果。


利用率的问题


业务的负载是动态变化的,而资源的弹性往往跟不上负载变化,所以会出现资源利用率不高的情况。为了简化部署运维的复杂度,一般应用在部署时往往指定固定的实例数,此时资源和负载的变化如下图所示:

2.png

可以看到,有大量的时间存在资源的浪费,按日平均资源利用率来计算不到30%。而资源利用率直接关系到成本,如果资源利用率提升一倍,成本就能下降50%。最理想的情况是资源完全贴合负载,如下图所示:

3.png

但现实的情况是很难做到,原因有两个:

  1. 负载的变化可以是很快的,但是资源的创建却需要更长的时间
  2. 资源的弹性成功率不是100%,出于稳定性考虑需要预留资源 Buffer

因此,实际的资源状况是介于上述两种情况之间,业务开发者可以通过一些手段来提升资源利用率,使其逼近100%。接下来我们看一下一些常用的提升资源利用率的手段。


提升利用率-弹性伸缩


容器化的应用通常会使用弹性伸缩来提升资源利用率。最典型的是使用 K8s 的 HPA 策略,设置一个 CPU 利用率阈值,当容器的 CPU 利用率超过阈值时自动增加容器,低于阈值时自动减少容器。使用HPA后业务负载和资源变化情况如下:

4.png

可以看到,在新增的资源创建完成之前,已有的资源要留有一些余量以缓冲负载的上升。在上面这种阶梯形的资源变化情况下利用率是多少呢?让我们来定量地分析一下。

5.png

可以看到,需要预留的资源和负载的上升幅度以及扩容时间有关。假设在扩容时间 T 内,负载从 A 上升到 B,实际需要的资源从 xA 扩容到 xB。为了在资源创建完成之前能够接住负载,当负载为A时需要有的资源量是 xB,则资源利用率是负载增长斜率和扩容时间的一个函数。当负载的增长比例K确定时,资源利用率 Util 是一个关于扩容时间 T 的反向函数,扩容时间越短,则资源利用率越高。

例如在负载每分钟增加100%的情况下,资源利用率和扩容时间的关系。

  • 当扩容时间为1分钟时,资源利用率为50%
  • 当扩容时间为5分钟时,资源利用率为17%

扩容时间是提升资源利用率的关键。从负载开始上升,到新容器创建完成,整个扩容时间可以分解成如下图所示:

6.png

  1. 反应时间
  1. 指标采集时间:例如 CPU 指标的采集需要取一段时间内的 CPU 平均利用率
  2. 决策时间:例如 CPU 指标的采集需要连续 N 次大于阈值才会触发扩容
  1. 启动时间
  1. 系统冷启动:系统准备机器和容器环境的时间
  2. 应用冷启动:容器启动后应用的初始化时间,例如JVM的启动,初始化中间件,加载数据等等

如何缩短扩容时间?下面对比 K8s 和函数计算 FC 在各个阶段的优化:

时间

K8s

函数计算 FC

指标采集时间

15s

0

并发度根据请求实时计算

决策时间

0

K8s默认的Stabilization window为0

0

并发度根据请求实时计算

系统冷启动

镜像:~30s

管控+调度+容器启动

代码包:200ms

镜像:3s

容器池化、代码包/镜像加速

应用冷启动

10ms ~ 10min

10ms ~ 10min

函数计算 FC 通过请求级别的调度,将反应时间缩短到0;通过代码包和镜像加速,将冷启动时间优化到最低200ms。在应用冷启动时间相同的情况下,函数计算 FC 的扩容时间比 K8s 快1分钟。若应用冷启动较快(10s),则函数计算 FC 的资源利用率会大幅优于 K8s;若应用冷启动较慢(1min),则 K8s 的利用率和函数计算 FC 差距变小。如下图所示:

8.png

应用冷启动时间的优化,在函数计算 FC 场景下能够大幅提升资源利用率。但是由于应用冷启动和具体的应用逻辑相关,比较难做通用的优化。一些可能的优化方向有:

  1. 应用改造:将 Java 应用改造成 Nodejs/Python 等轻量的函数,将镜像改造成代码包方式,但改造代价较大。
  2. 函数快照:将已经初始化完成的函数实例做成镜像,通过镜像快速拉起新的实例。但镜像打破了实例的独特性,例如一些应用初始化生成的 UUID 在同一镜像拉起的实例中会冲突。
  3. 数据加载加速:一些应用在初始化时需要从 OSS 加载大量数据,系统可以通过 Cache/P2P 等方式加速数据的加载

总结下 HPA 存在的一些问题:

  1. 弹性速度问题:弹性速度慢导致 buffer 留得多,利用率低
  2. 缩容速度问题:缩容速度慢,有观察窗口
  3. CPU 阈值难以设置:靠业务经验,往往过低


提升利用率-混部超卖


容器化的应用提升资源利用率的另一种方式是混部和超卖。容器集群的使用模式有两种:

  1. 经典 K8s 模式:有节点池,Pod 创建在节点上,需要关注容器利用率和节点资源分配率
  2. Serverless K8s 模式:无节点池,Pod 由 Serverless Container 承载,只需要关注容器资源利用率

9.png

在经典 K8s 模式下,容器的弹性伸缩并没有提升资源利用率,即使将容器删除掉了,节点也还在。而节点的弹性伸缩不如容器灵活。在这种情况下,混部和超卖是提升资源利用率的常见做法。在 K8s 里面通过 resource.request < resource.limit 来实现超卖: K8s 在调度时根据 resource.request 来分配容器,但是根据 resource.limit 来限制容器的资源使用。

10.png

可以看到,一个节点上的容器的最大使用资源加起来,会超过节点的资源限制。能这样做的假设是每个容器的资源使用不会同时达到 resource.limit,否则就会产生资源竞争,导致性能下降甚至 OOM。但这样的假设并不总是成立的,每个容器的资源使用是动态变化的,这样就有一定的概率会出现资源竞争。混部超卖要达到较好的效果并不容易,影响混部效果的因素包括资源池大小,负载多样性,性能稳定性,超载迁移策略等。

首先是资源池大小,资源池越大,发生资源竞争的概率就越小。让我们来定量分析一下竞争的概率:假设有4个应用,每个应用的资源使用量有50%概率是1,50%概率是2。我们来对比将它们放在一个大的资源池和两个小的资源池的发生竞争的概率:

11.png

可以看到大资源池的概率要明显低于小资源池。最直观的,A 和 C 同时为2的时候,在小资源池模式下必然产生竞争,但是在大资源池下未必会产生竞争。对于具体的业务应用来说,由于负载规模不大,资源池也就比较小,混部产生竞争的概率就会较大。

其次是负载的多样性,负载越多样越互补,混部的效果就越好,资源利用率就越高。这种多样性既包括资源需求的多样性,例如有的负载是 CPU 密集型而有的是 IO 型的;也包括时间波动的多样性,例如有的负载是早高峰而有的是晚高峰。

12.png

对于具体的业务应用来说,负载的多样性不够,资源利用率难以进一步提高。

最后是超载迁移,当节点的负载过高时,需要将一部分容器迁移到其他的节点。这个迁移过程需要是平滑的,不影响业务。在 K8s 中调度器是不感知应用请求流量的,因此在超载迁移时,需要应用层通过健康检查、优雅上下线等机制配合进行迁移。如果没有及时迁移就会导致请求失败影响服务质量。

总结下混部存在的一些问题:

  1. 资源池不够大:资源竞争概率高
  2. 负载多样性不够:资源竞争概率高,利用率不高
  3. 超载迁移不平滑:节点超载时流量迁移不平滑


提升利用率 - Serverless


弹性伸缩和混部超卖是提升资源利用率的有效方式,但由于其固有的复杂度属性,业务开发者往往需要投入较大的精力才能取得较好的效果,而这些基础设施相关的工作,往往不是业务开发者的核心竞争力。业务开发者之所以需要想尽方法来提升资源利用率,最根本的问题是机器是属于业务开发者的。能否将业务开发者从机器运维中解放出来呢?Serverless 提供了一种产品形态,将资源管理的责任从用户侧转移到平台侧。这样,业务开发者只需要为业务请求付费,而无需关注资源利用率,专注在业务创新上。

13.png

Serverless 并不是没有服务器了,而是将服务器的管理、运维和利用率提升这些工作集中到平台侧,发挥平台在资源规模、负载多样性上的优势,提升机器的资源利用率。下图是Serverless系统的内部架构,通过系统侧的流量管理、弹性伸缩和混部超卖,提升集群的资源利用率:

  1. 通过深度垂直优化,提升冷启动速度,做到弹得快
  2. 通过吸收不同的业务负载,扩大资源池规模,增加负载多样性,提升混部效率

14.png

从用户侧来看,利用 Serverless 平台提供的能力来提升业务侧的资源利用率:

 a. 请求调度:按请求时间计费,闲置时间不计费,实例的时间利用率为100%

15.png

b. 闲置计费:应对应用冷启动慢的业务,提供预留实例闲置计费,当实例没有请求时,费用降低到1/10

16.png

 c. 动态并发度:针对 CPU 阈值设置过低的问题,系统根据实际流量动态决定最佳并发度,寻找吞吐拐点

17.png


结论


由于负载的动态变化,资源的容量评估和利用率提升,是困扰业务开发者的问题。通过弹性伸缩和混部超卖来提升资源利用率的方式由于其固有的复杂度,实施的效果并不理想。Serverless 平台将资源管理的责任从用户侧转移到平台侧,让业务开发者专注在业务开发上,而平台本身利用其资源规模和负载多样性的优势,专注在资源利用率的提升上,实现共赢。

对于业务开发者而言,根据应用的特点,可以采取如下的选型路径:

  1. 对于启动快的应用,直接使用按量模式,达到100%利用率
  2. 对于启动慢的应用,可以选择优化启动速度,也可以选择使用预留模式+闲置计费,提升利用率
  3. 可以立即开始使用Serverless的应用:定时任务,Web-hook

18.png


有奖体验


函数计算团队全新上线“函数计算 FC 一键部署 通义千问 预体验、文生图、图生图、图生文、文生文5大经典 AI 场景,让您获得通义千问 30次对话预体验机会,同时简单、高效实现一键部署图像生成、文字生成服务,速成 AIGC 创作家。

双重奖品设置

  • 完成函数计算开通及应用部署,赢取开发者社区400积分;
  • 参加 AI 生成图像比赛赢取AirPods(第三代)、阿里云定制蓝牙音箱、阿里云定制清雅杯!

参与活动链接👇

https://developer.aliyun.com/topic/aigc_fc#J_5808073260

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
相关文章
|
4月前
|
运维 Serverless 测试技术
函数计算产品使用问题之支持10个并发任务需要多少资源
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。
|
15天前
|
存储 弹性计算 关系型数据库
活动实践 | 告别资源瓶颈,函数计算驱动多媒体文件处理测评
本方案介绍了一种高效处理文件的方法,适用于企业办公和社交媒体应用。通过阿里云的函数计算、对象存储OSS和轻量消息队列,实现文件的异步处理,如格式转换和水印添加,有效减轻了核心应用的负担,提高了业务稳定性和资源利用率。方案包括云服务器ECS、云数据库RDS、OSS存储等组件,支持快速部署和资源清理。
|
1月前
|
关系型数据库 Serverless 分布式数据库
PolarDB Serverless 模式通过自动扩缩容技术,根据实际工作负载动态调整资源,提高系统灵活性与成本效益
PolarDB Serverless 模式通过自动扩缩容技术,根据实际工作负载动态调整资源,提高系统灵活性与成本效益。用户无需预配高固定资源,仅需为实际使用付费,有效应对流量突变,降低总体成本。示例代码展示了基本数据库操作,强调了合理规划、监控评估及结合其他云服务的重要性,助力企业数字化转型。
29 6
|
1月前
|
运维 Serverless 数据处理
Serverless架构通过提供更快的研发交付速度、降低成本、简化运维、优化资源利用、提供自动扩展能力、支持实时数据处理和快速原型开发等优势,为图像处理等计算密集型应用提供了一个高效、灵活且成本效益高的解决方案。
Serverless架构通过提供更快的研发交付速度、降低成本、简化运维、优化资源利用、提供自动扩展能力、支持实时数据处理和快速原型开发等优势,为图像处理等计算密集型应用提供了一个高效、灵活且成本效益高的解决方案。
98 1
|
2月前
|
运维 Serverless 数据处理
Serverless架构通过提供更快的研发交付速度、降低成本、简化运维、优化资源利用、提供自动扩展能力、支持实时数据处理和快速原型开发等优势,为图像处理等计算密集型应用提供了一个高效、灵活且成本效益高的解决方案。
Serverless架构通过提供更快的研发交付速度、降低成本、简化运维、优化资源利用、提供自动扩展能力、支持实时数据处理和快速原型开发等优势,为图像处理等计算密集型应用提供了一个高效、灵活且成本效益高的解决方案。
63 3
|
3月前
|
弹性计算 关系型数据库 Serverless
告别资源瓶颈,函数计算驱动多媒体文件处理方案:https://www.aliyun.com/solution/tech-solution/fc-drive-file
本文介绍了一种基于阿里云的一键部署解决方案,利用云服务器ECS、RDS MySQL、OSS、函数计算FC及MNS等服务,实现高效的多媒体文件处理。方案通过事件驱动机制,将文件处理任务解耦,并自动弹性扩展,按需付费,简化部署流程,提高处理效率。本文还提供了详细的部署步骤与体验反馈,展示了从配置到文件处理的全过程。
|
4月前
|
存储 Serverless 数据库
告别资源瓶颈,函数计算驱动多媒体文件处理
在数字化浪潮中,体验了《告别资源瓶颈,函数计算驱动多媒体文件处理》解决方案。详尽的文档和清晰的引导让上手变得容易,尽管高级功能的文档仍有提升空间。部署时,代码示例提升了效率,虽遇少许配置难题,但最终解决。性能表现卓越,稳定性强,按需付费有效控制成本,极力推荐企业采用此方案加速云端转型。同时,配套的云产品如存储、计算及数据库服务等表现出色,操作简单易懂,适合各水平用户。
|
4月前
|
运维 Kubernetes 大数据
Kubernetes 的架构问题之在Serverless Container场景下尚不支持资源超售如何解决
Kubernetes 的架构问题之在Serverless Container场景下尚不支持资源超售如何解决
68 0
|
4月前
|
消息中间件 存储 自然语言处理
告别资源瓶颈,函数计算驱动多媒体文件处理
阿里云函数计算为多媒体处理提供全面解决方案,涵盖从服务创建到部署测试的全流程指导。官方文档详实,助您快速上手。但仍需加强错误处理指南、多语言API示例、性能优化及真实案例分享。实践中可能遇权限、依赖或网络配置等问题,建议参照文档与错误日志排查,必要时寻求技术支持。函数计算具自动伸缩与按用量计费特点,适合处理高并发多媒体任务,有效控制成本。结合消息队列等服务,实现任务异步处理,提升整体系统性能与稳定性。总体评价正面,功能丰富、性能优良且易于配置,是多媒体处理的理想选择。
|
4月前
|
编解码 运维 Serverless
函数计算驱动多媒体文件处理:告别资源瓶颈,释放处理能力
随着多媒体内容的爆炸性增长,如何高效地处理和管理多媒体文件成为了各大企业面临的重大挑战。阿里云提供的函数计算(Function Compute)驱动多媒体文件处理解决方案,为这一问题提供了高效、灵活的解决途径。本文将对该解决方案进行详细评测,分析其优势和应用场景。
65 1

相关产品

  • 函数计算