kubeadm方式搭建的k8s集群升级——2023.05

简介: kubeadm方式搭建的k8s集群升级——2023.05

一、概述


搭建k8s集群的方式有很多种,比如二进制,kubeadm,RKE(Rancher)等,k8s集群升级方式也各有千秋,本文主要介绍使用kubeadm方式搭建的k8s集群升级方法。

需要注意的是,升级集群版本建议逐步升级,比如 v1.20.4–>v1.21.4–>v1.22.4–>v1.23.4–>v1.24.4,不能跨度过大,否则会报错。


二、集群概况


节点名称 IP 版本 目标版本
k8s-master1 192.168.2.245 v1.19.12 v1.20.15
k8s-master2 192.168.2.246 v1.19.12 v1.20.15
k8s-master3 192.168.2.247 v1.19.12 v1.20.15
k8s-master4 192.168.2.247 v1.19.12 v1.20.15


三、升级集群


2.1 确定升级版本

kubectl get nodes   # 查看集群版本


1acf4fde34854fde8ab99db3c1e8aafa.png

可以看到目前的版本是v1.19.12。

# 执行如下命令确定升级版本
yum list --showduplicates kubeadm --disableexcludes=kubernetes

1d3f5707c2764443aad770827e2307ab.png

我的目标版本是1.20.15-0。


2.2 升级Master


1. 升级 kubeadm

所有 master 节点操作

# 升级kubeadm
yum install -y kubeadm-1.20.15-0 --disableexcludes=kubernetes   # --disableexcludes=kubernetes:禁掉除了这个kubernetes之外的别的仓库
# 升级完成后验证版本
kubeadm version


2. 升级 master1 节点

master1节点操作即可

# 验证升级计划。检查当前集群是否可被升级
kubeadm upgrade plan


dd516534619f4d759dd2435cc3f8ce80.png

最高可以升级到 v1.20.15 版本,正好与我们的目标版本一致;只要可允许升级的最高版本高于你的目标版本,就可以升级。

注意:kubeadm upgrade命令也会自动对kubeadm在节点上所管理的证书执行续约操作。如果需要略过证书续约操作,可以使用

标志--certificate-renewal=false

确定集群升级目标版本,并且查看升级计划符合条件后,就可以在 master1 节点上执行升级集群的命令了。

# 将 master1 升级到目标版本
kubeadm upgrade apply v1.20.15


c0551b3196c84632966bbfee23807733.png

3. 升级 master2&master3 节点

master2 & master3节点操作

升级master2 & master3 节点与 master1 节点相同,但是使用下面的命令,而不是kubeadm upgrade apply命令。

kubeadm upgrade node

2afb06c360e24e51809815f9be7bdf6d.png

4. 升级kubectl和kubelet

三台 master 节点操作,操作顺序:master1——>master2——>master3

分别在三台master节点上执行如下操作,注意更改<节点名称>。

# 1.将当前节点标记为不可调度,并驱逐节点上的Pod
kubectl drain <节点名称> --ignore-daemonsets
##说明:
## --ignore-daemonsets 无视DaemonSet管理下的Pod。即--ignore-daemonsets往往需要指定的,这是
#因为deamonset会忽略unschedulable标签(使用kubectl drain时会自动给节点打上不可调度标签),
#由于deamonset控制器控制的pod被删除后可能马上又在此节点上启动起来,这样就会成为死循环。因此
#这里忽略daemonset。
# 2.升级kubelet和kubectl组件
yum install -y kubelet-1.20.15-0 kubectl-1.20.15-0 --disableexcludes=kubernetes
## 说明: --disableexcludes=kubernetes:禁掉除了这个kubernetes之外的别的仓库
# 3.重启kubelet
systemctl daemon-reload
systemctl restart kubelet
# 4.恢复当前节点上的Pod调度,使其上线
kubectl uncordon <节点名称>


此时查看节点版本,发现三台master节点已经升级完毕。

f0d54b235e2549749d2149ff281b489c.png

接下来我们升级worker节点。


2.3 升级 Worker

工作节点上的升级过程应该一次执行一个节点,或者一次执行几个节点,以不影响运行工作负载所需的最小容量。

由于我的集群中只有一个worker节点,所以这里只在一台机器上操作;如果你的集群中有多个worker节点,每个节点都需要操作。

# 升级kubeadm
yum install -y kubeadm-1.20.15-0 --disableexcludes=kubernetes
# 查看版本
kubeadm version
# 升级 node 节点
kubeadm upgrade node
# 设置节点不可调度并排空节点。只有1个worker节点时忽略此步,因为可能会报错
kubectl drain k8s-node1 --ignore-daemonsets
# 升级kubelet和kubectl组件
yum install -y kubelet-1.20.15-0 kubectl-1.20.15-0 --disableexcludes=kubernetes
# 重启kubelet
systemctl daemon-reload
systemctl restart kubelet
# 恢复当前节点上的Pod调度。只有1个worker节点时忽略此步
kubectl uncordon k8s-node1     # k8s-node1 为worker节点名称


四、验证集群


1. 验证集群状态是否正常

kubectl get nodes
# 结果如下:
[root@k8s-master1 ~]# kubectl get node
NAME          STATUS   ROLES                  AGE   VERSION
k8s-master1   Ready    control-plane,master   74d   v1.20.15
k8s-master2   Ready    control-plane,master   74d   v1.20.15
k8s-master3   Ready    control-plane,master   74d   v1.20.15
k8s-node1     Ready    <none>                 74d   v1.20.15


ac3df0a7aeb1440c9dc468e727a3e8b3.png

版本均已升级到 v1.20.15。


2. 验证集群证书是否正常

kubeadm alpha certs check-expiration
## 结果如下:
[root@k8s-master1 ~]# kubeadm alpha certs check-expiration
Command "check-expiration" is deprecated, please use the same command under "kubeadm certs"
[check-expiration] Reading configuration from the cluster...
[check-expiration] FYI: You can look at this config file with 'kubectl -n kube-system get cm kubeadm-config -o yaml'
CERTIFICATE                EXPIRES                  RESIDUAL TIME   CERTIFICATE AUTHORITY   EXTERNALLY MANAGED
admin.conf                 May 15, 2024 07:04 UTC   364d            ca                      no
apiserver                  May 15, 2024 07:03 UTC   364d            ca                      no
apiserver-etcd-client      May 15, 2024 07:03 UTC   364d            etcd-ca                 no
apiserver-kubelet-client   May 15, 2024 07:03 UTC   364d            ca                      no
controller-manager.conf    May 15, 2024 07:03 UTC   364d            ca                      no
etcd-healthcheck-client    May 15, 2024 07:02 UTC   364d            etcd-ca                 no
etcd-peer                  May 15, 2024 07:02 UTC   364d            etcd-ca                 no
etcd-server                May 15, 2024 07:02 UTC   364d            etcd-ca                 no
front-proxy-client         May 15, 2024 07:03 UTC   364d            front-proxy-ca          no
scheduler.conf             May 15, 2024 07:04 UTC   364d            ca                      no
CERTIFICATE AUTHORITY   EXPIRES                  RESIDUAL TIME   EXTERNALLY MANAGED
ca                      Feb 28, 2033 02:23 UTC   9y              no
etcd-ca                 Feb 28, 2033 02:23 UTC   9y              no
front-proxy-ca          Feb 28, 2033 02:23 UTC   9y              no

bba9476c4977440cb6c80a531958d6dc.png

参考文章:

https://cloud.tencent.com/developer/article/1771832

https://blog.csdn.net/Sebastien23/article/details/129479140

kubenetes 调度:https://blog.csdn.net/m0_47293933/article/details/126027843

k8s官网:https://kubernetes.io/zh-cn/docs/tasks/administer-cluster/kubeadm/kubeadm-upgrade/

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
8天前
|
Prometheus Kubernetes 监控
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
|
12天前
|
运维 分布式计算 Kubernetes
ACK One多集群Service帮助大批量应用跨集群无缝迁移
ACK One多集群Service可以帮助您,在无需关注服务间的依赖,和最小化迁移风险的前提下,完成跨集群无缝迁移大批量应用。
|
2月前
|
缓存 容灾 网络协议
ACK One多集群网关:实现高效容灾方案
ACK One多集群网关可以帮助您快速构建同城跨AZ多活容灾系统、混合云同城跨AZ多活容灾系统,以及异地容灾系统。
|
3月前
|
Kubernetes Ubuntu 网络安全
ubuntu使用kubeadm搭建k8s集群
通过以上步骤,您可以在 Ubuntu 系统上使用 kubeadm 成功搭建一个 Kubernetes 集群。本文详细介绍了从环境准备、安装 Kubernetes 组件、初始化集群到管理和使用集群的完整过程,希望对您有所帮助。在实际应用中,您可以根据具体需求调整配置,进一步优化集群性能和安全性。
178 12
|
3月前
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。
|
3月前
|
Kubernetes 网络协议 应用服务中间件
Kubernetes Ingress:灵活的集群外部网络访问的利器
《Kubernetes Ingress:集群外部访问的利器-打造灵活的集群网络》介绍了如何通过Ingress实现Kubernetes集群的外部访问。前提条件是已拥有Kubernetes集群并安装了kubectl工具。文章详细讲解了Ingress的基本组成(Ingress Controller和资源对象),选择合适的版本,以及具体的安装步骤,如下载配置文件、部署Nginx Ingress Controller等。此外,还提供了常见问题的解决方案,例如镜像下载失败的应对措施。最后,通过部署示例应用展示了Ingress的实际使用方法。
102 2
|
3月前
|
存储 Kubernetes 关系型数据库
阿里云ACK备份中心,K8s集群业务应用数据的一站式灾备方案
本文源自2024云栖大会苏雅诗的演讲,探讨了K8s集群业务为何需要灾备及其重要性。文中强调了集群与业务高可用配置对稳定性的重要性,并指出人为误操作等风险,建议实施周期性和特定情况下的灾备措施。针对容器化业务,提出了灾备的新特性与需求,包括工作负载为核心、云资源信息的备份,以及有状态应用的数据保护。介绍了ACK推出的备份中心解决方案,支持命名空间、标签、资源类型等维度的备份,并具备存储卷数据保护功能,能够满足GitOps流程企业的特定需求。此外,还详细描述了备份中心的使用流程、控制台展示、灾备难点及解决方案等内容,展示了备份中心如何有效应对K8s集群资源和存储卷数据的灾备挑战。
|
4月前
|
Kubernetes 监控 Cloud Native
Kubernetes集群的高可用性与伸缩性实践
Kubernetes集群的高可用性与伸缩性实践
110 1
|
5月前
|
JSON Kubernetes 容灾
ACK One应用分发上线:高效管理多集群应用
ACK One应用分发上线,主要介绍了新能力的使用场景
|
5月前
|
Kubernetes 持续交付 开发工具
ACK One GitOps:ApplicationSet UI简化多集群GitOps应用管理
ACK One GitOps新发布了多集群应用控制台,支持管理Argo CD ApplicationSet,提升大规模应用和集群的多集群GitOps应用分发管理体验。

热门文章

最新文章

推荐镜像

更多