有状态容器业务基于ACK多可用区部署实践

简介: 业务背景和要求为了让有状态应用在k8s中部署可以获得尽可能高的可用性,对业务多可用区的部署带来了更高的要求::为了更高的可用性,需要让业务pod尽量均衡的分布在多个可用区中业务pod要可以分别在不同的可用区中挂载上云盘做持久化,需要保障pod和disk始终在一个AZ(云盘不可以跨区挂载)如果一个pod或一个节点发生故障,需要第一时间将pod重新调度到同可用区的另一台可用机器上去,机器可以是弹性新建

业务背景和要求

为了让有状态应用在k8s中部署可以获得尽可能高的可用性,对业务多可用区的部署带来了更高的要求::

  1. 为了更高的可用性,需要让业务pod尽量均衡的分布在多个可用区中
  2. 业务pod要可以分别在不同的可用区中挂载上云盘做持久化,需要保障pod和disk始终在一个AZ(云盘不可以跨区挂载)
  3. 如果一个pod或一个节点发生故障,需要第一时间将pod重新调度到同可用区的另一台可用机器上去,机器可以是弹性新建的,但为了故障能最快速的自愈,该机器最好是预热在节点池中的,pod可以第一时间调度到同区的可用节点上,且可以重新挂载使用原先使用的云盘
  4. 如果业务需要扩容,可以自动完成资源扩充,云盘创建挂载,且尽量做到多可用区均衡部署

方案规划

有状态业务通常为了存储有更高的io性能会选用块存储作为存储设备,但因为块存储只能挂载到相同可用区下的ECS实例上,那么有状态业务跨区部署时,就需要考虑如何保证应用pod及对应的块存储资源始终在一个可用区,不会由于业务pod迁移到了其他可用区无法挂载之前使用的块存储设备而造成故障,为了保障业务的可用性及运维人员的可操作性,我们规划设计如下:

  1. 在三个可用区,分别建一个弹性节点池,配置统一的标签和污点,选用统一的机型,且保证选用的三个可用区有同样的云盘可以使用(比如ESSD),保证只有sts业务可以调度到该组资源中去,避免和其他业务混合部署带来性能或可用性的干扰
  2. 定义一个storageclass,type定义cloud_essd,cloud_ssd,cloud_efficiency(essd会优先创建),同时配置volumeBindingMode为WaitForFirstConsumer,确保在多可用区的集群中调度时,先创建pod,再根据pod所在可用区信息创建云盘
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: sts-sc
provisioner: diskplugin.csi.alibabacloud.com
parameters:
  type: cloud_essd,cloud_ssd,cloud_efficiency
  #regionId: cn-beijing
  #zoneId: cn-beijing-h,cn-beijing-g,cn-beijing-k
  #fstype: ext4
  #diskTags: "a:b,b:c"
  #encrypted: "false"
  #performanceLevel: PL1
  #volumeExpandAutoSnapshot: "forced" #该设置仅在type为"cloud_essd"时生效。
volumeBindingMode: WaitForFirstConsumer
reclaimPolicy: Retain
allowVolumeExpansion: true
  1. 配合上占位pod的能力,用占位pod提前扩容预热一台计算节点,有状态pod可自动调度到占位pod所在节点上,占位pod被驱逐后自动再扩容一台节点做预留

方案落地——多可用区实现同时快速弹性扩容

多可用区实现同时快速弹性扩容,可参考:https://help.aliyun.com/document_detail/410611.html

  1. 在三个可用区创建三个弹性节点池,H, K, G, 分别配置了如下label和污点
label:
  avaliable_zone: k
  usage: sts
taints:
- effect: NoSchedule
  key: usage
  value: sts

label:
  avaliable_zone: g
  usage: sts
taints:
- effect: NoSchedule
  key: usage
  value: sts

label:
  avaliable_zone: h
  usage: sts
taints:
- effect: NoSchedule
  key: usage
  value: sts

  1. 部署placeholder及占位deployment
deployments:
- affinity: {}
  annotations: {}
  containers:
  - image: registry-vpc.cn-beijing.aliyuncs.com/acs/pause:3.1
    imagePullPolicy: IfNotPresent
    name: placeholder
    resources:
      requests:
        cpu: 3000m
        memory: 6
  imagePullSecrets: {}
  labels: {}
  name: ack-place-holder-h
  nodeSelector:
    avaliable_zone: h
  replicaCount: 1
  tolerations:
  - effect: NoSchedule
    key: usage
    operator: Equal
    value: sts
- affinity: {}
  annotations: {}
  containers:
  - image: registry-vpc.cn-beijing.aliyuncs.com/acs/pause:3.1
    imagePullPolicy: IfNotPresent
    name: placeholder
    resources:
      requests:
        cpu: 3000m
        memory: 6
  imagePullSecrets: {}
  labels: {}
  name: ack-place-holder-k
  nodeSelector:
    avaliable_zone: k
  replicaCount: 1
  tolerations:
  - effect: NoSchedule
    key: usage
    operator: Equal
    value: sts
- affinity: {}
  annotations: {}
  containers:
  - image: registry-vpc.cn-beijing.aliyuncs.com/acs/pause:3.1
    imagePullPolicy: IfNotPresent
    name: placeholder
    resources:
      requests:
        cpu: 3000m
        memory: 6
  imagePullSecrets: {}
  labels: {}
  name: ack-place-holder-g
  nodeSelector:
    avaliable_zone: g
  replicaCount: 1
  tolerations:
  - effect: NoSchedule
    key: usage
    operator: Equal
    value: sts
fullnameOverride: ""
nameOverride: ""
podSecurityContext: {}
priorityClassDefault:
  enabled: true
  name: default-priority-class
  value: -1

可以看到,当前集群中,先前定义的3个节点池中,都弹起了一个节点,分别都有一个占位的deployment将pod部署在节点中:

k get deployment                       
NAME                 READY   UP-TO-DATE   AVAILABLE   AGE
ack-place-holder-g   1/1     1            1           18m
ack-place-holder-h   1/1     1            1           18m
ack-place-holder-k   1/1     1            1           18m

# pod分布在三个可用区的三个节点中
k get po -o wide           
NAME                                  READY   STATUS    RESTARTS   AGE    IP            NODE                      NOMINATED NODE   READINESS GATES
ack-place-holder-g-7b87d547d6-2h92f   1/1     Running   0          14m    10.4.48.187   worker.10.4.48.186.g7ne   <none>           <none>
ack-place-holder-h-5cd56f49ff-qpw44   1/1     Running   0          14m    10.1.86.119   worker.10.0.63.207.g7ne   <none>           <none>
ack-place-holder-k-6b5c96457d-vjzhp   1/1     Running   0          14m    10.2.57.72    worker.10.2.57.70.g7ne    <none>           <none>

此时,我们部署一个sts应用:

apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: nginx-dynamic
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx
  serviceName: nginx
  template:
    metadata:
      labels:
        app: nginx
        usage: sts
    spec:
      affinity:
        podAntiAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
          - labelSelector:
              matchExpressions:
              - key: usage
                operator: In
                values:
                - sts
            topologyKey: kubernetes.io/hostname
            #topologyKey: topology.kubernetes.io/zone
      nodeSelector:
        usage: sts
      tolerations:
      - key: "usage"
        operator: "Equal"
        value: "sts"
        effect: "NoSchedule"
      containers:
      - name: nginx
        image: nginx
        ports:
        - containerPort: 80
          name: web
        resources:
          requests:
            cpu: 2
          limits:
            cpu: 4
        volumeMounts:
        - name: disk-essd
          mountPath: /data
  volumeClaimTemplates:
  - metadata:
      name: disk-essd
    spec:
      accessModes: [ "ReadWriteMany" ]
      storageClassName: "sts-sc"
      resources:
        requests:
          storage: 20Gi

部署上面的statefulset后,可以看到,sts的pod立刻驱逐了占位pod,开始部署业务pod:

k get po -w                                                                  
NAME                                  READY   STATUS              RESTARTS   AGE
ack-place-holder-g-7b87d547d6-vsv8z   0/1     Pending             0          9s
ack-place-holder-h-5cd56f49ff-qpw44   1/1     Running             0          18m
ack-place-holder-k-6b5c96457d-vjzhp   1/1     Running             0          18m
nginx-dynamic-0                       0/1     ContainerCreating   0          9s

被驱逐的占位pod,立马开始触发对应可用区的弹性节点池的扩容,预热一台机器做资源补充:

k get po   
NAME                                  READY   STATUS              RESTARTS   AGE
ack-place-holder-g-7b87d547d6-vsv8z   1/1     Running             0          4m49s
ack-place-holder-h-5cd56f49ff-dbhns   1/1     Running             0          4m17s
ack-place-holder-k-6b5c96457d-xxjqs   0/1     ContainerCreating   0          3m45s
nginx-dynamic-0                       1/1     Running             0          4m49s
nginx-dynamic-1                       1/1     Running             0          4m17s
nginx-dynamic-2                       1/1     Running             0          3m45s

最终,可以看到sts的业务pod调度到了之前占位pod所在的三台机器上(worker.10.4.48.186.g7ne, worker.10.0.63.207.g7ne ,worker.10.2.57.70.g7ne),同时占位pod调度到了新扩容的三台节点上:

k get po -o wide 
NAME                                  READY   STATUS    RESTARTS   AGE     IP            NODE                      NOMINATED NODE   READINESS GATES
ack-place-holder-g-7b87d547d6-vsv8z   1/1     Running   0          7m26s   10.4.48.190   worker.10.4.48.189.g7ne   <none>           <none>
ack-place-holder-h-5cd56f49ff-dbhns   1/1     Running   0          6m54s   10.1.86.121   worker.10.0.63.208.g7ne   <none>           <none>
ack-place-holder-k-6b5c96457d-xxjqs   1/1     Running   0          6m22s   10.2.57.74    worker.10.2.57.73.g7ne    <none>           <none>
nginx-dynamic-0                       1/1     Running   0          7m26s   10.4.48.187   worker.10.4.48.186.g7ne   <none>           <none>
nginx-dynamic-1                       1/1     Running   0          6m54s   10.1.86.119   worker.10.0.63.207.g7ne   <none>           <none>
nginx-dynamic-2                       1/1     Running   0          6m22s   10.2.57.72    worker.10.2.57.70.g7ne    <none>           <none>

总结

通过上述方法,我们成功实现了:

  1. pod多区分布
  2. 根据初次创建的pod所在可用区来创建并挂载云盘
  3. 后续pod重建后,可自动根据云盘所在的可用区信息实现同可用区的正确调度
  4. 如果需要扩容,scale pod可以自动通过占位pod极速拉起业务pod,同时占位pod可继续扩容资源做储备

另外,需要特别注意的是:

  1. 本方案只是从部署层面,帮助有状态应用尽量的高可用性,但有状态的应用,中间件及DB等类型的业务,本身状态数据的一致性并不可以通过这个方式来保障,集群本身的数据一致性机制才是实现状态一致性的核心
  2. 当前只是采用了相对简单的podAntiAffinity来做多区部署,并没有绝对意义上的多区均衡部署,后续结合上k8s的topologySpread机制,可以让多区部署更均衡
相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
6月前
|
存储 Kubernetes 网络安全
关于阿里云 Kubernetes 容器服务(ACK)添加镜像仓库的快速说明
本文介绍了在中国大陆地区因网络限制无法正常拉取 Docker 镜像的解决方案。作者所在的阿里云 Kubernetes 集群使用的是较旧版本的 containerd(1.2x),且无法直接通过 SSH 修改节点配置,因此采用了一种无需更改 Kubernetes 配置文件的方法。通过为 `docker.io` 添加 containerd 的镜像源,并使用脚本自动修改 containerd 配置文件中的路径错误(将错误的 `cert.d` 改为 `certs.d`),最终实现了通过多个镜像站点拉取镜像。作者还提供了一个可重复运行的脚本,用于动态配置镜像源。虽然该方案能缓解镜像拉取问题,
723 2
|
存储 Kubernetes 开发工具
使用ArgoCD管理Kubernetes部署指南
ArgoCD 是一款基于 Kubernetes 的声明式 GitOps 持续交付工具,通过自动同步 Git 存储库中的配置与 Kubernetes 集群状态,确保一致性与可靠性。它支持实时同步、声明式设置、自动修复和丰富的用户界面,极大简化了复杂应用的部署管理。结合 Helm Charts,ArgoCD 提供模块化、可重用的部署流程,显著减少人工开销和配置错误。对于云原生企业,ArgoCD 能优化部署策略,提升效率与安全性,是实现自动化与一致性的理想选择。
805 0
|
8月前
|
Cloud Native 中间件 调度
云原生信息提取系统:容器化流程与CI/CD集成实践
本文介绍如何通过工程化手段解决数据提取任务中的稳定性与部署难题。结合 Scrapy、Docker、代理中间件与 CI/CD 工具,构建可自动运行、持续迭代的云原生信息提取系统,实现结构化数据采集与标准化交付。
704 1
云原生信息提取系统:容器化流程与CI/CD集成实践
|
11月前
|
存储 Kubernetes 异构计算
Qwen3 大模型在阿里云容器服务上的极简部署教程
通义千问 Qwen3 是 Qwen 系列最新推出的首个混合推理模型,其在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。
|
12月前
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
1081 33
|
12月前
|
Kubernetes 开发者 Docker
集群部署:使用Rancher部署Kubernetes集群。
以上就是使用 Rancher 部署 Kubernetes 集群的流程。使用 Rancher 和 Kubernetes,开发者可以受益于灵活性和可扩展性,允许他们在多种环境中运行多种应用,同时利用自动化工具使工作负载更加高效。
672 19
|
12月前
|
Ubuntu 关系型数据库 MySQL
容器技术实践:在Ubuntu上使用Docker安装MySQL的步骤。
通过以上的操作,你已经步入了Docker和MySQL的世界,享受了容器技术给你带来的便利。这个旅程中你可能会遇到各种挑战,但是只要你沿着我们划定的路线行进,你就一定可以达到目的地。这就是Ubuntu、Docker和MySQL的灵魂所在,它们为你开辟了一条通往新探索的道路,带你亲身感受到了技术的力量。欢迎在Ubuntu的广阔大海中探索,用Docker技术引领你的航行,随时准备感受新技术带来的震撼和乐趣。
470 16
|
存储 测试技术 对象存储
使用容器服务ACK快速部署QwQ-32B模型并实现推理智能路由
阿里云最新发布的QwQ-32B模型,通过强化学习大幅度提升了模型推理能力。QwQ-32B模型拥有320亿参数,其性能可以与DeepSeek-R1 671B媲美。
|
存储 监控 对象存储
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
376 0
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
|
存储 监控 对象存储
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
292 1

相关产品

  • 容器服务Kubernetes版
  • 推荐镜像

    更多