动手实操,让你的 Kubernetes 集群弹起来!

简介: 本文将对于集群自动弹性伸缩(cluster-autosclaer)进行介绍,并在 ACK 集群上进行实操。

目录

什么是集群自动弹性伸缩?

为什么需要集群自动弹性伸缩?

集群自动弹性伸缩的原理是什么?

实践环节


什么是集群自动弹性伸缩?

集群自动弹性伸缩(cluster-autoscaler)  是一个可以自动扩缩 Kubernetes 集群规模的工具,独立于 Kubernetes 主代码仓库以外,与 VPA、Addon-Resizer 等组件共同维护在  kubernetes/autoscaler 仓库,并且各云厂商贡献了对标准扩展接口(CloudProvider)的实现。


为什么需要集群自动弹性伸缩?

cluster-autosclaer 属于弹性伸缩的重要一部分,只要谈到弹性伸缩,一般都会首先想到两个关键词:成本、效率


cluster-autoscaler 根据用户配置的策略,自动的调整集群的规模,优势主要体现在:

  • 资源动态调整:在业务高峰期时可以结合对工作负载的弹性扩容来调整扩大集群规模,承载更大的计算量。业务低峰期,动态的对工作负载分布进行调整,对节点进行排水、回收,以此降低计算资源成本。
  • 屏蔽底层资源:可以让开发者专注于业务开发,屏蔽对底层资源的感知,降低运维人员的运维难度以及运维成本。


集群自动弹性伸缩的原理是什么?

cluster-autoscaler 声明了 CloudProvider接口,通过抽象的 NodeGroup概念来对接各云厂商的弹性伸缩服务(比如阿里云的 ess,华为云的 as 等)。


提示:

CloudProvider Interface: https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/cloudprovider/cloud_provider.go#L89


按照用户指定的策略定期的去检查集群中 Pending 状态的 Pod 以及 Node 的资源水位,来执行 Scale操作,其中主要是 Scale Up 以及 Scale Down操作,分别对应节点的弹出以及销毁。


Scale Up

ScaleUp 的逻辑流程如下:

  1. cluster-autoscaler 会对由于资源不足导致 Pending 状态的 Pod 进行监听。
  2. 获取配置的多个弹性伸缩组,当存在上述 Pending  的Pod 时,会根据需要的资源、Pod 调度需要的条件(Label,Taint,GPU等)在伸缩组中进行匹配筛选。
  3. 如果可以满足调度的条件,会根据计算结果驱动对应伸缩组创建节点


我们来画一下流程会更直观一点



上面我们有提到,Scale Up 的逻辑是从多个弹性伸缩组中去判断筛选,去弹出新的节点。


这里就会涉及到弹性伸缩组的选择策略,去选择合适的 NodeGroup ,官方声明了如下 6 种策略,通过 expander 参数可以指定,不同云厂商对于策略的支持有限的,并不是支持所有策略

  • random:随机选择
  • most-pods:选择可以容纳最多当前 Pods 的伸缩组,会与 Pending Pod 亲和性等相关
  • least-waste:选择一个资源浪费最少的节点池进行扩容
  • price:选择性价比最高的伸缩组
  • priority:优先级策略,可以在 kube-system 下的 cluster-autoscaler-priority-expander configmap 配置,按照配置伸缩组的优先级进行选择,可以参考 priority
  • grpc:通过 GRPC 调用外部的选择服务来选择伸缩组,相当于自定义扩展


Scale Down

对于节点回收这种比较敏感且可能造成数据丢失的功能,并不是强制开启的,cluster-autoscaler 的参数中可以通过 scale-down-enabled 来控制。


Scale Down 的流程如下:

  1. 当 cluster-autoscaler 监听到 Node 的利用率低于设置的阈值时scale-down-utilization-threshold 参数)会触发判断
  2. 尝试判断是否可以将此 Node 上的 Pod 彻底驱逐到其他的节点,有些特殊的 Pod 不在判断范围内(比如 skip-nodes-with-system-pods 参数可以控制是否跳过 kube-system 等 Pod)
  3. 判断完成后,将先驱逐节点上的 Pod 到其他节点,再移除节点


同样的,我们来画一下流程图会更清晰一些


实践环节

百说不如一练,接下来我们动手实践一下,实践环节将基于 ACK 的自动伸缩能力来进行,并结合 HPA 来使用 ClusterAutoscaler。


前期准备

准备阶段,我们需要准备如下内容:


提示:

本次演示应用发布以及 HPA 在 Erda 平台上操作,相关操作可以直接替换为其他 PaaS 平台的弹性伸缩或原生 kubectl 操作。


集群自动弹性伸缩配置

首先我们来到 容器服务控制台,在集群更多中选择 自动伸缩

自动伸缩页面.png

进入后我们需要配置如下参数:

  • 缩容阈值:节点上 Request 的资源与总资源量的比值,低于阈值触发集群缩容
  • 缩容触发时延:节点缩容时需要连续满足触发时延所设定的时间才可进行缩容
  • 静默时间: 扩容出的节点,在静默时间过后,方可进入缩容判断
  • 弹性灵敏度: 判断伸缩的间隔时间
  • 节点池扩容顺序策略: 这里我们选择 least-waste


提示:

更详细的参数解释,请参考配置自动伸缩

参数配置页面.png

节点池配置

创建完成后,可以看到伸缩状态为 待激活,接下来我们创建节点池

节点池配置.png


点击 创建节点池,如下几个配置需要我们着重注意

  1. 填写基本信息,这里容器运行时我们选择 containerd建议容器运行时保持与当前集群一致,可以通过如下命令查看
kubectl get no -owide--no-headers

  1. 配置自动伸缩实例的规格,会从第一个规格开始按顺序尝试购买

节点池详细配置-规格.png

  1. 配置节点池的数量上下限以及节点标签,这里因为我们服务是发在 Erda 平台上的,并且是期望生产环境、无状态服务的弹性伸缩,所以需要如下标签。

提示:

需要根据当前集群应用交付的实际场景去配置合适的标签

iShot_2022-08-12_10.39.12.png

  1. 实例自定义数据,弹出的节点在一些场景下我们需要进行数据的初始化,需要用到该选项,采用标准的 cloud-init 方式执行shell。

这里我们执行如下脚本,修改 containerd 的镜像仓库配置以及将宿主机 DNS 指向 CoreDNS

exportREGISTRY_ADDR="erda-registry.erda-system.svc.cluster.local:5000"curl https://erda-project.oss-cn-hangzhou.aliyuncs.com/scripts/ack_ca_init.sh | bash


节点池配置完成后,等待初始化完成。从集群中我们可以看到 cluster-autoscaler 组件已经创建出来,并且集群弹性伸缩状态变为 已激活

[root@node-010000000190 ~]# kubectl get po -n kube-system | grep autoscalercluster-autoscaler-674d5f5479-8v5pl                        1/1     Running     0          14s

ACK节点池创建成功.png


结果验证

首先我们在 Erda 平台上发布一个服务


接下来我们配置弹性伸缩策略,当 CPU 平均使用率在 80% 以上,触发扩容


我们可以直接查看该 Deployment Erda 创建的 Keda ScaledObject,大家可以按照 keda 官方的配置去作用在自己的 Deployment 上,详细参考 ScaledObject spec

kubectl get so -A | grep web


配置完成后,我们进入服务的 控制台, 输入如下命令,提高服务 CPU 的平均使用率

for i in`seq 1 $(cat /proc/cpuinfo |grep "physical id" |wc -l)`; do dd if=/dev/zero of=/dev/null & done

控制台提高CPU.png


等待片刻后,可以看到触发了 Keda 的事件,实例扩容为 2 个

弹性开始事件.png


从 ACK 节点池中,我们可以看到出现了伸缩活动,弹出了一台 ECS

ACK伸缩事件-扩容.png

从 Erda 中我们可以看到,新的实例已经运行在了集群弹出的新节点上

ErdaRuntime新实例调度新节点截图.png


验证完成集群节点扩容,接下来我们降低 CPU 的平均使用率,触发 HPA 缩容我们进入服务 控制台 执行如下命令,停止 CPU 占用,降低平均使用率

pkill -9 dd


稍等片刻后,从集群事件中可以看到,所有指标已经低于目标值,触发实例恢复,恢复到扩容之前的 1 个实例

弹性恢复事件.png

此时我们登陆 ACK 控制台,在节点池伸缩活动中可以看到,触发了节点的缩容,ECS 被删除回收

ACK伸缩事件-缩容.png

到这里我们的验证就完成了,以上就是经典的 HPA 结合 ClusterAutoscaler 的应用场景。


相关链接:

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。     相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
5月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
ACK One 的多集群应用分发,可以最小成本地结合您已有的单集群 CD 系统,无需对原先应用资源 YAML 进行修改,即可快速构建成多集群的 CD 系统,并同时获得强大的多集群资源调度和分发的能力。
183 9
|
5月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
本文介绍如何利用阿里云的分布式云容器平台ACK One的多集群应用分发功能,结合云效CD能力,快速将单集群CD系统升级为多集群CD系统。通过增加分发策略(PropagationPolicy)和差异化策略(OverridePolicy),并修改单集群kubeconfig为舰队kubeconfig,可实现无损改造。该方案具备多地域多集群智能资源调度、重调度及故障迁移等能力,帮助用户提升业务效率与可靠性。
|
7月前
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
646 33
|
7月前
|
Kubernetes 开发者 Docker
集群部署:使用Rancher部署Kubernetes集群。
以上就是使用 Rancher 部署 Kubernetes 集群的流程。使用 Rancher 和 Kubernetes,开发者可以受益于灵活性和可扩展性,允许他们在多种环境中运行多种应用,同时利用自动化工具使工作负载更加高效。
372 19
|
7月前
|
人工智能 分布式计算 调度
打破资源边界、告别资源浪费:ACK One 多集群Spark和AI作业调度
ACK One多集群Spark作业调度,可以帮助您在不影响集群中正在运行的在线业务的前提下,打破资源边界,根据各集群实际剩余资源来进行调度,最大化您多集群中闲置资源的利用率。
|
10月前
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。
|
7月前
|
Prometheus Kubernetes 监控
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
216 0
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
|
9月前
|
缓存 容灾 网络协议
ACK One多集群网关:实现高效容灾方案
ACK One多集群网关可以帮助您快速构建同城跨AZ多活容灾系统、混合云同城跨AZ多活容灾系统,以及异地容灾系统。
|
8月前
|
运维 分布式计算 Kubernetes
ACK One多集群Service帮助大批量应用跨集群无缝迁移
ACK One多集群Service可以帮助您,在无需关注服务间的依赖,和最小化迁移风险的前提下,完成跨集群无缝迁移大批量应用。
|
10月前
|
Kubernetes Ubuntu 网络安全
ubuntu使用kubeadm搭建k8s集群
通过以上步骤,您可以在 Ubuntu 系统上使用 kubeadm 成功搭建一个 Kubernetes 集群。本文详细介绍了从环境准备、安装 Kubernetes 组件、初始化集群到管理和使用集群的完整过程,希望对您有所帮助。在实际应用中,您可以根据具体需求调整配置,进一步优化集群性能和安全性。
739 13

热门文章

最新文章

推荐镜像

更多