Kubernetes 节点的预留资源

简介: Kubernetes 节点的预留资源

在 Kubernetes 中,运行多个集群节点是否存在隐形成本?

是的,因为并非 Kubernetes 节点中的所有 CPU 和内存都可用于运行 Pod。

在一个 Kubernetes 节点中,CPU 和内存分为:

  1. 操作系统
  2. Kubelet、CNI、CRI、CSI(+ 系统 daemons)
  3. Pods
  4. 驱逐阈值

Kubernetes 节点中的可分配资源

这些预留的资源取决于实例的大小,并且可能会增加相当大的开销。

让我们举一个简单的例子。

想象一下,你有一个具有单个 1GiB / 1vCPU 节点的集群。

以下资源是为 kubelet 和操作系统保留的:

  • 255MiB 内存。
  • 60m 的 CPU。

最重要的是,为驱逐阈值预留了 100MB。

那么总共有 25% 的内存和 6% 的 CPU 不能使用。

在 1GiB / 1vCPU Kubernetes 节点中,25% 的内存由 kubelet 保留

在云厂商中的情况又是如何?

EKS 有一些(有趣的?)限制。

让我们选择一个具有 2vCPU 和 8GiB 内存的 m5.large 实例。

AWS 为 kubelet 和操作系统保留了以下内容:

  • 574MiB 内存。
  • 70m 的 CPU。

这一次,你很幸运。

你可以使用大约 93% 的可用内存。

如果将 EKS 与 m5.large 节点一起使用,则可以使用 93% 的可用内存来运行 pod

但这些数字从何而来?

每个云厂商都有自己定义限制的方式,但对于 CPU,他们似乎都同意以下值:

  • 第一个核心的 6%。
  • 下一个核心的 1%(最多 2 个核心)。
  • 接下来 2 个核心的 0.5%(最多 4 个核心)。
  • 四核以上任何核的 0.25%。

至于内存限制,云厂商之间差异很大。

Azure 是最保守的,而 AWS 则是最不保守的。

Azure 中 kubelet 的预留内存为:

  • 前 4 GB 内存的 25%。
  • 4 GB 以下内存的 20%(最大 8 GB)。
  • 8 GB 以下内存的 10%(最大 16 GB)。
  • 下一个 112 GB 内存的 6%(最多 128 GB)。
  • 超过 128 GB 的任何内存的 2%。

这对于 GKE 是相同的,除了一个值:逐出阈值在 GKE 中为 100MB,在 AKS 中为 750MiB。

在 EKS 中,使用以下公式分配内存:

255MiB + (11MiB * MAX_NUMBER OF POD)

不过,这个公式提出了一些问题。

在前面的示例中,m5.large 保留了 574MiB 的内存。

这是否意味着 VM 最多可以有 (574–255) / 11 = 29 个 pod?

如果你没有在 VPC-CNI 中启用 prefix 前缀分配模式,这是正确的。

如果这样做,结果将大不相同。

对于多达 110 个 pod,AWS 保留:

  • 1.4GiB 内存。
  • (仍然)70m 的 CPU。

这听起来更合理,并且与其他云厂商一致。

如果你将 EKS 与 m5.large 节点和前缀分配模式一起使用,则 kubelet 会保留 1.4GiB 的内存

让我们看看 GKE 进行比较。

对于类似的实例类型(即 n1-standard-2,7.5GB 内存,2vCPU),kubelet 的预留如下:

  • 1.7GB 内存。
  • 70m 的 CPU。

如果你将 GKE 与 n1-standard-2 节点一起使用,则 kubelet 会保留 1.7GiB 的内存

换句话说,23% 的实例内存无法分配给运行的 Pod。

如果实例每月花费 48.54 美元,那么你将花费 11.16 美元来运行 kubelet。

其他云厂商呢?

你如何检查这些值?

我们构建了一个简单的工具来检查 kubelet 的配置并提取相关细节。

你可以在这里找到它:https://github.com/learnk8s/kubernetes-resource-inspector

如果你有兴趣探索更多关于节点大小的信息,我们还构建了一个简单的实例计算器,你可以在其中定义工作负载的大小,它会显示适合该大小的所有实例(及其价格)。

https://learnk8s.io/kubernetes-instance-calculator

我希望你喜欢这篇关于 Kubernetes 资源预留的短文;在这里,你可以找到更多链接以进一步探索该主题。

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
11天前
|
数据库 存储 监控
什么是 SAP HANA 内存数据库 的 Delta Storage
什么是 SAP HANA 内存数据库 的 Delta Storage
22 0
什么是 SAP HANA 内存数据库 的 Delta Storage
|
10天前
|
运维 Kubernetes Shell
Kubernetes详解(十二)——节点选择器与资源注解
Kubernetes详解(十二)——节点选择器与资源注解
27 2
|
11天前
|
运维 Kubernetes Linux
Kubernetes详解(九)——资源配置清单创建Pod实战
Kubernetes详解(九)——资源配置清单创建Pod实战
31 2
|
11天前
|
JSON Kubernetes API
Kubernetes详解(八)——Kubernetes资源配置清单
Kubernetes详解(八)——Kubernetes资源配置清单
20 2
|
11天前
|
存储 Kubernetes 关系型数据库
Kubernetes详解(二)——Kubernetes结构与资源对象
Kubernetes详解(二)——Kubernetes结构与资源对象
25 0
|
11天前
|
Kubernetes 监控 调度
Kubernetes(K8s)与虚拟GPU(vGPU)协同:实现GPU资源的高效管理与利用
本文探讨了如何使用Kubernetes和虚拟GPU(vGPU)实现异构GPU的协同调度。Kubernetes是一个容器编排平台,通过设备插件、资源规格、调度器扩展和节点标签实现GPU资源管理。vGPU技术允许物理GPU资源在多个虚拟机或容器中共享。文章详细介绍了vGPU的部署配置步骤,并提出了GPU资源调度、负载均衡和监控调优的方法。强调虚拟GPU的性能取决于硬件和驱动支持,合理配置能提供高性能计算环境。参考文献包括Kubernetes和NVIDIA官方文档及相关研究论文。
|
11天前
|
Kubernetes 固态存储 调度
Kubernetes节点亲和性分配Pod
Kubernetes节点亲和性分配Pod
36 0
Kubernetes节点亲和性分配Pod
|
11天前
|
Kubernetes 调度 容器
Kubernetes容器资源限制
Kubernetes容器资源限制
25 0
|
11天前
|
Kubernetes 搜索推荐 应用服务中间件
通过keepalived+nginx实现 k8s apiserver节点高可用
通过keepalived+nginx实现 k8s apiserver节点高可用
45 16
|
11天前
|
Kubernetes 应用服务中间件 nginx
使用kubeadm搭建生产环境的多master节点k8s高可用集群
使用kubeadm搭建生产环境的多master节点k8s高可用集群
99 0