动手实操,让你的 Kubernetes 集群弹起来!

简介: 本文将对于集群自动弹性伸缩(cluster-autosclaer)进行介绍,并在 ACK 集群上进行实操。

目录

什么是集群自动弹性伸缩?

为什么需要集群自动弹性伸缩?

集群自动弹性伸缩的原理是什么?

实践环节


什么是集群自动弹性伸缩?

集群自动弹性伸缩(cluster-autoscaler)  是一个可以自动扩缩 Kubernetes 集群规模的工具,独立于 Kubernetes 主代码仓库以外,与 VPA、Addon-Resizer 等组件共同维护在  kubernetes/autoscaler 仓库,并且各云厂商贡献了对标准扩展接口(CloudProvider)的实现。


为什么需要集群自动弹性伸缩?

cluster-autosclaer 属于弹性伸缩的重要一部分,只要谈到弹性伸缩,一般都会首先想到两个关键词:成本、效率


cluster-autoscaler 根据用户配置的策略,自动的调整集群的规模,优势主要体现在:

  • 资源动态调整:在业务高峰期时可以结合对工作负载的弹性扩容来调整扩大集群规模,承载更大的计算量。业务低峰期,动态的对工作负载分布进行调整,对节点进行排水、回收,以此降低计算资源成本。
  • 屏蔽底层资源:可以让开发者专注于业务开发,屏蔽对底层资源的感知,降低运维人员的运维难度以及运维成本。


集群自动弹性伸缩的原理是什么?

cluster-autoscaler 声明了 CloudProvider接口,通过抽象的 NodeGroup概念来对接各云厂商的弹性伸缩服务(比如阿里云的 ess,华为云的 as 等)。


提示:

CloudProvider Interface: https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/cloudprovider/cloud_provider.go#L89


按照用户指定的策略定期的去检查集群中 Pending 状态的 Pod 以及 Node 的资源水位,来执行 Scale操作,其中主要是 Scale Up 以及 Scale Down操作,分别对应节点的弹出以及销毁。


Scale Up

ScaleUp 的逻辑流程如下:

  1. cluster-autoscaler 会对由于资源不足导致 Pending 状态的 Pod 进行监听。
  2. 获取配置的多个弹性伸缩组,当存在上述 Pending  的Pod 时,会根据需要的资源、Pod 调度需要的条件(Label,Taint,GPU等)在伸缩组中进行匹配筛选。
  3. 如果可以满足调度的条件,会根据计算结果驱动对应伸缩组创建节点


我们来画一下流程会更直观一点



上面我们有提到,Scale Up 的逻辑是从多个弹性伸缩组中去判断筛选,去弹出新的节点。


这里就会涉及到弹性伸缩组的选择策略,去选择合适的 NodeGroup ,官方声明了如下 6 种策略,通过 expander 参数可以指定,不同云厂商对于策略的支持有限的,并不是支持所有策略

  • random:随机选择
  • most-pods:选择可以容纳最多当前 Pods 的伸缩组,会与 Pending Pod 亲和性等相关
  • least-waste:选择一个资源浪费最少的节点池进行扩容
  • price:选择性价比最高的伸缩组
  • priority:优先级策略,可以在 kube-system 下的 cluster-autoscaler-priority-expander configmap 配置,按照配置伸缩组的优先级进行选择,可以参考 priority
  • grpc:通过 GRPC 调用外部的选择服务来选择伸缩组,相当于自定义扩展


Scale Down

对于节点回收这种比较敏感且可能造成数据丢失的功能,并不是强制开启的,cluster-autoscaler 的参数中可以通过 scale-down-enabled 来控制。


Scale Down 的流程如下:

  1. 当 cluster-autoscaler 监听到 Node 的利用率低于设置的阈值时scale-down-utilization-threshold 参数)会触发判断
  2. 尝试判断是否可以将此 Node 上的 Pod 彻底驱逐到其他的节点,有些特殊的 Pod 不在判断范围内(比如 skip-nodes-with-system-pods 参数可以控制是否跳过 kube-system 等 Pod)
  3. 判断完成后,将先驱逐节点上的 Pod 到其他节点,再移除节点


同样的,我们来画一下流程图会更清晰一些


实践环节

百说不如一练,接下来我们动手实践一下,实践环节将基于 ACK 的自动伸缩能力来进行,并结合 HPA 来使用 ClusterAutoscaler。


前期准备

准备阶段,我们需要准备如下内容:


提示:

本次演示应用发布以及 HPA 在 Erda 平台上操作,相关操作可以直接替换为其他 PaaS 平台的弹性伸缩或原生 kubectl 操作。


集群自动弹性伸缩配置

首先我们来到 容器服务控制台,在集群更多中选择 自动伸缩

自动伸缩页面.png

进入后我们需要配置如下参数:

  • 缩容阈值:节点上 Request 的资源与总资源量的比值,低于阈值触发集群缩容
  • 缩容触发时延:节点缩容时需要连续满足触发时延所设定的时间才可进行缩容
  • 静默时间: 扩容出的节点,在静默时间过后,方可进入缩容判断
  • 弹性灵敏度: 判断伸缩的间隔时间
  • 节点池扩容顺序策略: 这里我们选择 least-waste


提示:

更详细的参数解释,请参考配置自动伸缩

参数配置页面.png

节点池配置

创建完成后,可以看到伸缩状态为 待激活,接下来我们创建节点池

节点池配置.png


点击 创建节点池,如下几个配置需要我们着重注意

  1. 填写基本信息,这里容器运行时我们选择 containerd建议容器运行时保持与当前集群一致,可以通过如下命令查看
kubectl get no -owide--no-headers

  1. 配置自动伸缩实例的规格,会从第一个规格开始按顺序尝试购买

节点池详细配置-规格.png

  1. 配置节点池的数量上下限以及节点标签,这里因为我们服务是发在 Erda 平台上的,并且是期望生产环境、无状态服务的弹性伸缩,所以需要如下标签。

提示:

需要根据当前集群应用交付的实际场景去配置合适的标签

iShot_2022-08-12_10.39.12.png

  1. 实例自定义数据,弹出的节点在一些场景下我们需要进行数据的初始化,需要用到该选项,采用标准的 cloud-init 方式执行shell。

这里我们执行如下脚本,修改 containerd 的镜像仓库配置以及将宿主机 DNS 指向 CoreDNS

exportREGISTRY_ADDR="erda-registry.erda-system.svc.cluster.local:5000"curl https://erda-project.oss-cn-hangzhou.aliyuncs.com/scripts/ack_ca_init.sh | bash


节点池配置完成后,等待初始化完成。从集群中我们可以看到 cluster-autoscaler 组件已经创建出来,并且集群弹性伸缩状态变为 已激活

[root@node-010000000190 ~]# kubectl get po -n kube-system | grep autoscalercluster-autoscaler-674d5f5479-8v5pl                        1/1     Running     0          14s

ACK节点池创建成功.png


结果验证

首先我们在 Erda 平台上发布一个服务


接下来我们配置弹性伸缩策略,当 CPU 平均使用率在 80% 以上,触发扩容


我们可以直接查看该 Deployment Erda 创建的 Keda ScaledObject,大家可以按照 keda 官方的配置去作用在自己的 Deployment 上,详细参考 ScaledObject spec

kubectl get so -A | grep web


配置完成后,我们进入服务的 控制台, 输入如下命令,提高服务 CPU 的平均使用率

for i in`seq 1 $(cat /proc/cpuinfo |grep "physical id" |wc -l)`; do dd if=/dev/zero of=/dev/null & done

控制台提高CPU.png


等待片刻后,可以看到触发了 Keda 的事件,实例扩容为 2 个

弹性开始事件.png


从 ACK 节点池中,我们可以看到出现了伸缩活动,弹出了一台 ECS

ACK伸缩事件-扩容.png

从 Erda 中我们可以看到,新的实例已经运行在了集群弹出的新节点上

ErdaRuntime新实例调度新节点截图.png


验证完成集群节点扩容,接下来我们降低 CPU 的平均使用率,触发 HPA 缩容我们进入服务 控制台 执行如下命令,停止 CPU 占用,降低平均使用率

pkill -9 dd


稍等片刻后,从集群事件中可以看到,所有指标已经低于目标值,触发实例恢复,恢复到扩容之前的 1 个实例

弹性恢复事件.png

此时我们登陆 ACK 控制台,在节点池伸缩活动中可以看到,触发了节点的缩容,ECS 被删除回收

ACK伸缩事件-缩容.png

到这里我们的验证就完成了,以上就是经典的 HPA 结合 ClusterAutoscaler 的应用场景。


相关链接:

相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
3天前
|
Kubernetes 微服务 容器
Aspire项目发布到远程k8s集群
Aspire项目发布到远程k8s集群
24 2
Aspire项目发布到远程k8s集群
|
7天前
|
存储 运维 监控
Kubernetes 集群监控与日志管理实践
【5月更文挑战第28天】在微服务架构日益普及的当下,容器编排工具如 Kubernetes 已成为运维工作的核心。有效的集群监控和日志管理是确保系统稳定性和服务可靠性的关键。本文将深入探讨 Kubernetes 集群的监控策略,以及如何利用现有的工具进行日志收集、存储和分析,以实现对集群健康状况的实时掌握和问题快速定位。
|
8天前
|
存储 监控 Kubernetes
Kubernetes 集群监控与日志管理实践
【5月更文挑战第27天】 在微服务架构日益普及的当下,容器化技术与编排工具如Kubernetes已成为现代云原生应用的基石。然而,随着集群规模的不断扩大和复杂性的增加,如何有效监控和管理这些动态变化的服务成为了维护系统稳定性的关键。本文将深入探讨Kubernetes环境下的监控策略和日志管理的最佳实践,旨在为运维人员提供一套系统的解决思路,确保应用性能的最优化和问题的快速定位。
|
4天前
|
运维 Kubernetes 调度
【kubernetes】关于k8s集群的污点、容忍、驱逐以及k8s集群故障排查思路
【kubernetes】关于k8s集群的污点、容忍、驱逐以及k8s集群故障排查思路
|
4天前
|
Kubernetes 微服务 容器
Aspire项目发布到win11本地k8s集群
Aspire项目发布到win11本地k8s集群
11 0
Aspire项目发布到win11本地k8s集群
|
5天前
|
运维 Prometheus 监控
Kubernetes 集群的监控与维护策略
【5月更文挑战第30天】 在微服务架构日益普及的背景下,容器编排工具如Kubernetes成为确保服务高效运行的关键。本文聚焦于Kubernetes集群的监控和维护,首先探讨了监控系统的重要性及其对集群健康的影响,随后详细介绍了一套综合监控策略,包括节点性能监控、应用服务质量跟踪以及日志管理等方面。此外,文章还提出了一系列实用的集群维护技巧和最佳实践,旨在帮助运维人员预防故障发生,快速定位问题,并确保集群长期稳定运行。
|
5天前
|
Prometheus 监控 Kubernetes
Kubernetes 集群的监控与日志管理实践深入理解PHP的命名空间与自动加载机制
【5月更文挑战第30天】 在容器化和微服务架构日益普及的背景下,Kubernetes 已成为众多企业的首选容器编排工具。然而,随之而来的挑战是集群的监控与日志管理。本文将深入探讨 Kubernetes 集群监控的最佳实践,包括节点资源使用情况、Pods 健康状态以及网络流量分析等关键指标的监控方法。同时,我们也将讨论日志聚合、存储和查询策略,以确保快速定位问题并优化系统性能。文中将介绍常用的开源工具如 Prometheus 和 Fluentd,并分享如何结合这些工具构建高效、可靠的监控和日志管理系统。
|
5天前
|
Prometheus 监控 Kubernetes
Kubernetes 集群的监控与维护最佳实践
【5月更文挑战第30天】 在现代云计算环境中,容器编排工具如Kubernetes已成为部署和管理微服务的关键。随着其日益广泛的应用,对集群进行有效的监控和维护显得尤为重要。本文将深入探讨Kubernetes集群监控的策略,并分享维护的最佳实践,以确保系统的稳定性和性能优化。我们将从监控工具的选择、关键指标的跟踪到故障排除流程等方面进行详细阐述,并提供实用的操作建议。
|
5天前
|
存储 运维 Kubernetes
Kubernetes 集群的持续性能优化策略
【5月更文挑战第30天】 在动态且日益复杂的云计算环境中,保持 Kubernetes 集群的高性能和稳定性是一个持续的挑战。本文将探讨一系列实用的性能优化策略,旨在帮助运维专家识别并解决可能影响集群性能的问题。我们将从节点资源配置、网络优化、存储管理以及集群监控等方面入手,提供一系列经过实践检验的调优技巧,并分享最佳实践案例。这些策略不仅有助于提升现有集群的性能,也为规划新的 Kubernetes 部署提供了参考依据。
|
5天前
|
运维 Kubernetes 监控
Kubernetes 集群的持续性能优化实践
【5月更文挑战第30天】 在动态且日益复杂的云原生环境中,维持 Kubernetes 集群的高性能运行是一个持续的挑战。本文将探讨一系列针对性能监控、问题定位及优化措施的实践方法,旨在帮助运维专家确保其 Kubernetes 环境能够高效、稳定地服务于不断变化的业务需求。通过深入分析系统瓶颈,我们不仅提供即时的性能提升方案,同时给出长期维护的策略建议,确保集群性能的可持续性。