Kubernetes EKS 集群中的 IP 地址分配问题

简介: Kubernetes EKS 集群中的 IP 地址分配问题

运行 EKS 集群时,你可能会遇到两个问题:

  • 分配给 pod 的 IP 地址用完了。
  • 每个节点的 pod 数量少(由于 ENI 限制)。

在本文中,你将学习如何克服这些问题。

在我们开始之前,这里有一些关于节点内网络如何在 Kubernetes 中工作的背景知识。

创建节点时,kubelet 委托:

  1. 创建容器到容器运行时。
  2. 将容器连接到 CNI 的网络。
  3. 将卷安装到 CSI。

kubelet 将任务委托给 CRI、CNI 和 CSI

让我们关注 CNI 部分。

每个 pod 都有自己独立的 Linux 网络命名空间,并连接到一个网桥。

CNI 负责创建网桥、分配 IP 并将 veth0 连接到 cni0。

大多数情况下,一个节点上的所有容器都连接到一个网桥上

这通常会发生,但不同的 CNI 可能会使用其他方式将容器连接到网络。

例如,可能没有 cni0 网桥。

AWS-CNI 是此类 CNI 的一个示例。

并非所有 CNI 都使用网桥连接同一节点上的容器

在 AWS 中,每个 EC2 实例都可以有多个网络接口 (ENI)。

你可以为每个 ENI 分配有限数量的 IP。

例如,一个 m5.large 实例可以为 ENI 分配最多 10 个 IP。

在这 10 个 IP 中,你必须将一个分配给网络接口。

剩下的你可以不用管。

弹性网络接口和 IP 地址

以前,你可以使用额外的 IP 并将它们分配给 Pod。

但是有一个很大的限制:IP 地址的数量。

让我们看一个例子。

使用 m5.large 实例,你最多有 3 个 ENI,每个有 10 个 IP 私有地址。

由于保留了一个 IP,每个 ENI 还剩下 9 个(总共 27 个)。

这意味着你的 m5.large 实例最多可以运行 27 个 Pod。

这不是很多。

你最多可以在 m5.large 中拥有 27 个 pod

但是 AWS 发布了对 EC2 的更改,允许将“地址前缀”分配给网络接口。

地址前缀是什么?!

简而言之,ENI 现在支持范围而不是单个 IP 地址。

如果以前你可以拥有 10 个私有 IP 地址,那么现在你可以拥有 10 个 IP 地址槽。

地址槽有多大呢?

默认情况下,16 个 IP 地址。

使用 10 个槽,你最多可以拥有 160 个 IP 地址。

这是一个相当显着的变化!

让我们看一个例子。

EC2 中的地址前后对比

使用 m5.large 实例,你有 3 个 ENI,每个有 10 个插槽(或 IP)。

由于为 ENI 保留了一个 IP,因此你还剩下 9 个插槽。

每个插槽是 16 个 IP,所以是 9*16=144 个 IP。

由于有 3 个 ENI,那就是 144x3=432 个 IP。

你现在最多可以拥有 432 个 Pod(之前是 27 个)。

你最多可以在 m5.large 中拥有 432 个 pod

AWS-CNI 支持插槽并将 Pod 的最大数量限制为 110 或 250,因此你最多可以在 m5.large 中拥有 432 个 pod 。

还值得指出的是,这不是默认启用的——即使在较新的集群中也是如此。

可能是因为只有 nitro 实例支持它。

分配插槽非常棒,直到你意识到 CNI 一次提供 16 个 IP 地址,而不是仅提供 1 个,这具有以下含义:

  • 更快地耗尽 IP 空间。
  • 碎片化。

让我们回顾一下。

EC2 和 EKS 中的前缀问题

一个 pod 被调度到一个节点。

AWS-CNI 分配 1 个 slot(16 个 IP),pod 使用一个。

现在想象一下有 5 个节点和一个包含 5 个副本的部署。

会发生什么?

Kubernetes 调度程序更喜欢将 pod 分布在整个集群中。

很可能,每个节点接收 1 个 pod,AWS-CNI 分配 1 个插槽(16 个 IP)。

你从你的网络分配了 5*15=75 个 IP,但仅使用了 5 个。

使用 AWS CNI 分配 IP

但还有更多。

插槽分配一个连续的 IP 地址块。

如果分配了一个新 IP(例如创建了一个节点),你可能会遇到碎片问题。

怎么解决这些问题呢?

  • 你可以为 EKS 分配一个次级 CIDR。
  • 你可以在子网内保留 IP 空间供插槽独占使用。

相关链接:

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
4天前
|
运维 Kubernetes 监控
Kubernetes 集群的持续性能优化实践
【4月更文挑战第26天】 在动态且不断增长的云计算环境中,维护高性能的 Kubernetes 集群是一个挑战。本文将探讨一系列实用的策略和工具,旨在帮助运维专家监控、分析和优化 Kubernetes 集群的性能。我们将讨论资源分配的最佳实践,包括 CPU 和内存管理,以及集群规模调整的策略。此外,文中还将介绍延迟和吞吐量的重要性,并提供日志和监控工具的使用技巧,以实现持续改进的目标。
|
7天前
|
存储 运维 Kubernetes
Kubernetes 集群的监控与维护策略
【4月更文挑战第23天】 在微服务架构日益盛行的当下,容器编排工具如 Kubernetes 成为了运维工作的重要环节。然而,随着集群规模的增长和复杂性的提升,如何确保 Kubernetes 集群的高效稳定运行成为了一大挑战。本文将深入探讨 Kubernetes 集群的监控要点、常见问题及解决方案,并提出一系列切实可行的维护策略,旨在帮助运维人员有效管理和维护 Kubernetes 环境,保障服务的持续可用性和性能优化。
|
8天前
|
存储 运维 Kubernetes
Kubernetes 集群的持续性能优化实践
【4月更文挑战第22天】在动态且复杂的微服务架构中,确保 Kubernetes 集群的高性能运行是至关重要的。本文将深入探讨针对 Kubernetes 集群性能优化的策略与实践,从节点资源配置、网络优化到应用部署模式等多个维度展开,旨在为运维工程师提供一套系统的性能调优方法论。通过实际案例分析与经验总结,读者可以掌握持续优化 Kubernetes 集群性能的有效手段,以适应不断变化的业务需求和技术挑战。
|
18天前
|
运维 Kubernetes 监控
Kubernetes 集群的监控与维护策略
【4月更文挑战第12天】在微服务架构日益普及的当下,Kubernetes 作为容器编排的事实标准,承载着运行和管理大量服务的重要职责。本文将深入探讨 Kubernetes 集群的监控要点,并提出一系列切实可行的维护策略,旨在帮助运维人员确保集群的稳定性和性能优化。
|
28天前
|
Kubernetes Cloud Native 容器
完全免费的K8S学习平台:在线集群环境助力你的云原生之路!
完全免费的K8S学习平台:在线集群环境助力你的云原生之路!
35 1
|
27天前
|
数据库 存储 监控
什么是 SAP HANA 内存数据库 的 Delta Storage
什么是 SAP HANA 内存数据库 的 Delta Storage
17 0
什么是 SAP HANA 内存数据库 的 Delta Storage
|
21天前
|
Kubernetes 搜索推荐 网络协议
使用 kubeadm 部署 Kubernetes 集群(三)kubeadm 初始化 k8s 证书过期解决方案
使用 kubeadm 部署 Kubernetes 集群(三)kubeadm 初始化 k8s 证书过期解决方案
36 8
|
2天前
|
Kubernetes 网络协议 Python
一文教会你,如何通过kubeadm,在生产环境部署K8S高可用集群(二)
一文教会你,如何通过kubeadm,在生产环境部署K8S高可用集群(二)
|
2天前
|
Kubernetes 应用服务中间件 开发工具
一文教会你,如何通过kubeadm,在生产环境部署K8S高可用集群(一)
一文教会你,如何通过kubeadm,在生产环境部署K8S高可用集群(一)
|
6天前
|
Kubernetes 应用服务中间件 nginx
【博客大赛】搭建一套完整的企业级Kubernetes高可用集群(v1.20,二进制)
【博客大赛】搭建一套完整的企业级Kubernetes高可用集群(v1.20,二进制)

推荐镜像

更多