在 Kubernetes 中应该如何设置 CPU 的 requests 和 limits

简介: 在 Kubernetes 中应该如何设置 CPU 的 requests 和 limits

在 Kubernetes 中,我应该如何设置 CPU 的 requests 和 limits?

热门答案包括:

  • 始终使用 limits !
  • 永远不要使用 limits,只使用 requests !
  • 都不用;可以吗?

让我们深入研究它。

在 Kubernetes 中,您有两种方法来指定一个 pod 可以使用多少 CPU:

  1. Requests 通常用于确定平均消耗。
  2. Limits 设置允许的最大资源数。

Kubernetes 调度器使用 requests 来确定 pod 应该分配到集群中的哪个节点。

由于调度器并不知道实际消耗(pod 尚未启动),它需要一个提示。

但它并没有就此结束。

Kubernetes 调度器使用 requests 来决定如何将 pod 分配给节点

CPU requests 还用于将同一个节点上的 CPU 资源如何分配给不同的容器。

让我们看一个例子:

  • 一个节点只有一个 CPU。
  • 容器 A requests 0.1 个 vCPU。
  • 容器 B requests 0.2 个 vCPU。

当两个容器都尝试使用 100% 的可用 CPU 时会发生什么?

两个容器的 CPU 使用率

由于 CPU 请求不限制消耗,因此两个容器都将使用所有可用的 CPU。

但是,由于容器 B 的请求与另一个相比增加了一倍,因此最终的 CPU 分配是:容器 1 使用 0.3vCPU,另一个使用 0.6vCPU(双倍数量)。

两个容器都使用所有可用的 CPU,但它们保持比例配额

Requests 适用于:

  • 设置基准(给我至少 X 数量的 CPU)。
  • 设置 pod 之间的关系(这个 pod A 使用的 CPU 是另一个的两倍)。

但不影响硬性限制。

为此,您需要 CPU limits。

设置 CPU limits 时,您定义了 period 周期和 quota 配额。

例如:

  • 周期:100000 微秒 (0.1s)。
  • 配额:10000 微秒 (0.01s)。

我只能每 0.1 秒使用 CPU 0.01 秒。

这也缩写为“100m”。

CPU 限制中的配额和周期

如果你的容器有硬限制并且想要更多的 CPU,它必须等待下一个周期。

您的进程受到限制。

一个被 CPU 限制的进程

那么您应该在 Pod 中如何设置 CPU requests 和 limits?

一种简单(但不准确)的方法是将最小的 CPU 单元计算为:

REQUEST = NODE_CORES * 1000 / MAX_NUM_PODS_PER_NODE

对于 1 个 vCPU 节点和 10 个 Pod ,最小单元就是 1 * 1000 / 10 = 100Mi

将最小单位或其乘数分配给您的容器。

将 CPU 请求分配给 Pod 和容器

例如,如果您不知道 Pod A 需要多少 CPU,但您确定它是 Pod B 的两倍,您可以设置:

  • Request A:1 个单元
  • Request B:2 个单位

如果容器使用 100% CPU,它们将根据它们的权重 (1:2) 重新分配 CPU。

两个 Pod 竞争 CPU 资源

更好的方法是监控应用程序并得出平均 CPU 利用率。

您可以使用现有的监控基础设施来完成此操作,或者使用 Vertical Pod Autoscaler 来监视并报告平均请求值。

你应该如何设置 limits?

  1. 您的应用可能已经有“硬性”限制。(例如单线程的应用即使分配了 2 个核,也最多只使用 1 个核)。
  2. 你可以设置:limit = 99th 分位数 + 30–50%。

您应该分析应用程序(或使用 VPA)以获得更详细的答案。

CPU 的第 99 百分位数

您应该始终设置 CPU requests 吗?

绝对没错。

这是 Kubernetes 中的标准良好实践,可帮助调度器更有效地分配 pod。

您应该始终设置 CPU limits 吗?

这有点争议,但总的来说,我是这么认为的。

你可以进行更深入的了解:https://dnastacio.medium.com/why-you-should-keep-using-cpu-limits-on-kubernetes-60c4e50dfc61

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。     相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
Prometheus Kubernetes 监控
容器服务ACK常见问题之pod设置securityContext调整参数失败如何解决
容器服务ACK(阿里云容器服务 Kubernetes 版)是阿里云提供的一种托管式Kubernetes服务,帮助用户轻松使用Kubernetes进行应用部署、管理和扩展。本汇总收集了容器服务ACK使用中的常见问题及答案,包括集群管理、应用部署、服务访问、网络配置、存储使用、安全保障等方面,旨在帮助用户快速解决使用过程中遇到的难题,提升容器管理和运维效率。
|
存储 Kubernetes 监控
Kubernetes设置
【10月更文挑战第3天】Kubernetes设置
143 5
|
弹性计算 Kubernetes Perl
k8s 设置pod 的cpu 和内存
在 Kubernetes (k8s) 中,设置 Pod 的 CPU 和内存资源限制和请求是非常重要的,因为这有助于确保集群资源的合理分配和有效利用。你可以通过定义 Pod 的 `resources` 字段来设置这些限制。 以下是一个示例 YAML 文件,展示了如何为一个 Pod 设置 CPU 和内存资源请求(requests)和限制(limits): ```yaml apiVersion: v1 kind: Pod metadata: name: example-pod spec: containers: - name: example-container image:
1564 2
|
关系型数据库 分布式数据库 数据库
PolarDB产品使用问题之在部署PolarDB-Kubernetes时,如何设置数据库密码
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。
273 56
|
存储 Kubernetes 监控
Kubernetes设置
Kubernetes设置
|
Kubernetes 监控 Java
如何设置 Kubernetes的垃圾回收策略为定期
如何设置 Kubernetes的垃圾回收策略为定期
|
存储 Kubernetes 监控
Kubernetes设置
Kubernetes设置
|
Prometheus Kubernetes Cloud Native
使用prometheus来避免Kubernetes CPU Limits造成的事故
使用prometheus来避免Kubernetes CPU Limits造成的事故
334 7
|
Kubernetes Linux 调度
k8s环境设置-pod下载及重启策略
k8s环境设置-pod下载及重启策略
289 1
|
Kubernetes 调度 容器
在K8S中,如何把某个worker节点设置为不可调度?
在K8S中,如何把某个worker节点设置为不可调度?

热门文章

最新文章

推荐镜像

更多