有状态容器业务基于ACK多可用区部署实践

简介: 业务背景和要求为了让有状态应用在k8s中部署可以获得尽可能高的可用性,对业务多可用区的部署带来了更高的要求::为了更高的可用性,需要让业务pod尽量均衡的分布在多个可用区中业务pod要可以分别在不同的可用区中挂载上云盘做持久化,需要保障pod和disk始终在一个AZ(云盘不可以跨区挂载)如果一个pod或一个节点发生故障,需要第一时间将pod重新调度到同可用区的另一台可用机器上去,机器可以是弹性新建

业务背景和要求

为了让有状态应用在k8s中部署可以获得尽可能高的可用性,对业务多可用区的部署带来了更高的要求::

  1. 为了更高的可用性,需要让业务pod尽量均衡的分布在多个可用区中
  2. 业务pod要可以分别在不同的可用区中挂载上云盘做持久化,需要保障pod和disk始终在一个AZ(云盘不可以跨区挂载)
  3. 如果一个pod或一个节点发生故障,需要第一时间将pod重新调度到同可用区的另一台可用机器上去,机器可以是弹性新建的,但为了故障能最快速的自愈,该机器最好是预热在节点池中的,pod可以第一时间调度到同区的可用节点上,且可以重新挂载使用原先使用的云盘
  4. 如果业务需要扩容,可以自动完成资源扩充,云盘创建挂载,且尽量做到多可用区均衡部署

方案规划

有状态业务通常为了存储有更高的io性能会选用块存储作为存储设备,但因为块存储只能挂载到相同可用区下的ECS实例上,那么有状态业务跨区部署时,就需要考虑如何保证应用pod及对应的块存储资源始终在一个可用区,不会由于业务pod迁移到了其他可用区无法挂载之前使用的块存储设备而造成故障,为了保障业务的可用性及运维人员的可操作性,我们规划设计如下:

  1. 在三个可用区,分别建一个弹性节点池,配置统一的标签和污点,选用统一的机型,且保证选用的三个可用区有同样的云盘可以使用(比如ESSD),保证只有sts业务可以调度到该组资源中去,避免和其他业务混合部署带来性能或可用性的干扰
  2. 定义一个storageclass,type定义cloud_essd,cloud_ssd,cloud_efficiency(essd会优先创建),同时配置volumeBindingMode为WaitForFirstConsumer,确保在多可用区的集群中调度时,先创建pod,再根据pod所在可用区信息创建云盘
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: sts-sc
provisioner: diskplugin.csi.alibabacloud.com
parameters:
  type: cloud_essd,cloud_ssd,cloud_efficiency
  #regionId: cn-beijing
  #zoneId: cn-beijing-h,cn-beijing-g,cn-beijing-k
  #fstype: ext4
  #diskTags: "a:b,b:c"
  #encrypted: "false"
  #performanceLevel: PL1
  #volumeExpandAutoSnapshot: "forced" #该设置仅在type为"cloud_essd"时生效。
volumeBindingMode: WaitForFirstConsumer
reclaimPolicy: Retain
allowVolumeExpansion: true
  1. 配合上占位pod的能力,用占位pod提前扩容预热一台计算节点,有状态pod可自动调度到占位pod所在节点上,占位pod被驱逐后自动再扩容一台节点做预留

方案落地——多可用区实现同时快速弹性扩容

多可用区实现同时快速弹性扩容,可参考:https://help.aliyun.com/document_detail/410611.html

  1. 在三个可用区创建三个弹性节点池,H, K, G, 分别配置了如下label和污点
label:
  avaliable_zone: k
  usage: sts
taints:
- effect: NoSchedule
  key: usage
  value: sts

label:
  avaliable_zone: g
  usage: sts
taints:
- effect: NoSchedule
  key: usage
  value: sts

label:
  avaliable_zone: h
  usage: sts
taints:
- effect: NoSchedule
  key: usage
  value: sts

  1. 部署placeholder及占位deployment
deployments:
- affinity: {}
  annotations: {}
  containers:
  - image: registry-vpc.cn-beijing.aliyuncs.com/acs/pause:3.1
    imagePullPolicy: IfNotPresent
    name: placeholder
    resources:
      requests:
        cpu: 3000m
        memory: 6
  imagePullSecrets: {}
  labels: {}
  name: ack-place-holder-h
  nodeSelector:
    avaliable_zone: h
  replicaCount: 1
  tolerations:
  - effect: NoSchedule
    key: usage
    operator: Equal
    value: sts
- affinity: {}
  annotations: {}
  containers:
  - image: registry-vpc.cn-beijing.aliyuncs.com/acs/pause:3.1
    imagePullPolicy: IfNotPresent
    name: placeholder
    resources:
      requests:
        cpu: 3000m
        memory: 6
  imagePullSecrets: {}
  labels: {}
  name: ack-place-holder-k
  nodeSelector:
    avaliable_zone: k
  replicaCount: 1
  tolerations:
  - effect: NoSchedule
    key: usage
    operator: Equal
    value: sts
- affinity: {}
  annotations: {}
  containers:
  - image: registry-vpc.cn-beijing.aliyuncs.com/acs/pause:3.1
    imagePullPolicy: IfNotPresent
    name: placeholder
    resources:
      requests:
        cpu: 3000m
        memory: 6
  imagePullSecrets: {}
  labels: {}
  name: ack-place-holder-g
  nodeSelector:
    avaliable_zone: g
  replicaCount: 1
  tolerations:
  - effect: NoSchedule
    key: usage
    operator: Equal
    value: sts
fullnameOverride: ""
nameOverride: ""
podSecurityContext: {}
priorityClassDefault:
  enabled: true
  name: default-priority-class
  value: -1

可以看到,当前集群中,先前定义的3个节点池中,都弹起了一个节点,分别都有一个占位的deployment将pod部署在节点中:

k get deployment                       
NAME                 READY   UP-TO-DATE   AVAILABLE   AGE
ack-place-holder-g   1/1     1            1           18m
ack-place-holder-h   1/1     1            1           18m
ack-place-holder-k   1/1     1            1           18m

# pod分布在三个可用区的三个节点中
k get po -o wide           
NAME                                  READY   STATUS    RESTARTS   AGE    IP            NODE                      NOMINATED NODE   READINESS GATES
ack-place-holder-g-7b87d547d6-2h92f   1/1     Running   0          14m    10.4.48.187   worker.10.4.48.186.g7ne   <none>           <none>
ack-place-holder-h-5cd56f49ff-qpw44   1/1     Running   0          14m    10.1.86.119   worker.10.0.63.207.g7ne   <none>           <none>
ack-place-holder-k-6b5c96457d-vjzhp   1/1     Running   0          14m    10.2.57.72    worker.10.2.57.70.g7ne    <none>           <none>

此时,我们部署一个sts应用:

apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: nginx-dynamic
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx
  serviceName: nginx
  template:
    metadata:
      labels:
        app: nginx
        usage: sts
    spec:
      affinity:
        podAntiAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
          - labelSelector:
              matchExpressions:
              - key: usage
                operator: In
                values:
                - sts
            topologyKey: kubernetes.io/hostname
            #topologyKey: topology.kubernetes.io/zone
      nodeSelector:
        usage: sts
      tolerations:
      - key: "usage"
        operator: "Equal"
        value: "sts"
        effect: "NoSchedule"
      containers:
      - name: nginx
        image: nginx
        ports:
        - containerPort: 80
          name: web
        resources:
          requests:
            cpu: 2
          limits:
            cpu: 4
        volumeMounts:
        - name: disk-essd
          mountPath: /data
  volumeClaimTemplates:
  - metadata:
      name: disk-essd
    spec:
      accessModes: [ "ReadWriteMany" ]
      storageClassName: "sts-sc"
      resources:
        requests:
          storage: 20Gi

部署上面的statefulset后,可以看到,sts的pod立刻驱逐了占位pod,开始部署业务pod:

k get po -w                                                                  
NAME                                  READY   STATUS              RESTARTS   AGE
ack-place-holder-g-7b87d547d6-vsv8z   0/1     Pending             0          9s
ack-place-holder-h-5cd56f49ff-qpw44   1/1     Running             0          18m
ack-place-holder-k-6b5c96457d-vjzhp   1/1     Running             0          18m
nginx-dynamic-0                       0/1     ContainerCreating   0          9s

被驱逐的占位pod,立马开始触发对应可用区的弹性节点池的扩容,预热一台机器做资源补充:

k get po   
NAME                                  READY   STATUS              RESTARTS   AGE
ack-place-holder-g-7b87d547d6-vsv8z   1/1     Running             0          4m49s
ack-place-holder-h-5cd56f49ff-dbhns   1/1     Running             0          4m17s
ack-place-holder-k-6b5c96457d-xxjqs   0/1     ContainerCreating   0          3m45s
nginx-dynamic-0                       1/1     Running             0          4m49s
nginx-dynamic-1                       1/1     Running             0          4m17s
nginx-dynamic-2                       1/1     Running             0          3m45s

最终,可以看到sts的业务pod调度到了之前占位pod所在的三台机器上(worker.10.4.48.186.g7ne, worker.10.0.63.207.g7ne ,worker.10.2.57.70.g7ne),同时占位pod调度到了新扩容的三台节点上:

k get po -o wide 
NAME                                  READY   STATUS    RESTARTS   AGE     IP            NODE                      NOMINATED NODE   READINESS GATES
ack-place-holder-g-7b87d547d6-vsv8z   1/1     Running   0          7m26s   10.4.48.190   worker.10.4.48.189.g7ne   <none>           <none>
ack-place-holder-h-5cd56f49ff-dbhns   1/1     Running   0          6m54s   10.1.86.121   worker.10.0.63.208.g7ne   <none>           <none>
ack-place-holder-k-6b5c96457d-xxjqs   1/1     Running   0          6m22s   10.2.57.74    worker.10.2.57.73.g7ne    <none>           <none>
nginx-dynamic-0                       1/1     Running   0          7m26s   10.4.48.187   worker.10.4.48.186.g7ne   <none>           <none>
nginx-dynamic-1                       1/1     Running   0          6m54s   10.1.86.119   worker.10.0.63.207.g7ne   <none>           <none>
nginx-dynamic-2                       1/1     Running   0          6m22s   10.2.57.72    worker.10.2.57.70.g7ne    <none>           <none>

总结

通过上述方法,我们成功实现了:

  1. pod多区分布
  2. 根据初次创建的pod所在可用区来创建并挂载云盘
  3. 后续pod重建后,可自动根据云盘所在的可用区信息实现同可用区的正确调度
  4. 如果需要扩容,scale pod可以自动通过占位pod极速拉起业务pod,同时占位pod可继续扩容资源做储备

另外,需要特别注意的是:

  1. 本方案只是从部署层面,帮助有状态应用尽量的高可用性,但有状态的应用,中间件及DB等类型的业务,本身状态数据的一致性并不可以通过这个方式来保障,集群本身的数据一致性机制才是实现状态一致性的核心
  2. 当前只是采用了相对简单的podAntiAffinity来做多区部署,并没有绝对意义上的多区均衡部署,后续结合上k8s的topologySpread机制,可以让多区部署更均衡
相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
5月前
|
Kubernetes Docker Python
Docker 与 Kubernetes 容器化部署核心技术及企业级应用实践全方案解析
本文详解Docker与Kubernetes容器化技术,涵盖概念原理、环境搭建、镜像构建、应用部署及监控扩展,助你掌握企业级容器化方案,提升应用开发与运维效率。
905 108
|
5月前
|
运维 监控 数据可视化
小白也能部署应用,3个免费的容器化部署工具测评
本文对比了三款容器化部署工具:Docker Compose、Portainer 和 Websoft9。Docker Compose 适合开发者编排多容器应用,Portainer 提供图形化管理界面,而 Websoft9 则面向中小企业和非技术人员,提供一键部署与全流程运维支持,真正实现“开箱即用”。三款工具各有定位,Websoft9 更贴近大众用户需求。
小白也能部署应用,3个免费的容器化部署工具测评
|
3月前
|
存储 关系型数据库 MySQL
MySQL Docker 容器化部署全指南
MySQL是一款开源关系型数据库,广泛用于Web及企业应用。Docker容器化部署可解决环境不一致、依赖冲突问题,实现高效、隔离、轻量的MySQL服务运行,支持数据持久化与快速迁移,适用于开发、测试及生产环境。
636 4
|
5月前
|
运维 数据可视化 C++
2025 热门的 Web 化容器部署工具对比:Portainer VS Websoft9
2025年热门Web化容器部署工具对比:Portainer与Websoft9。Portainer以轻量可视化管理见长,适合技术团队运维;Websoft9则提供一站式应用部署与容器管理,内置丰富开源模板,降低中小企业部署门槛。两者各有优势,助力企业提升容器化效率。
403 1
2025 热门的 Web 化容器部署工具对比:Portainer VS Websoft9
|
4月前
|
存储 Kubernetes 持续交付
为什么Docker容器化改变了开发与部署?
为什么Docker容器化改变了开发与部署?
|
4月前
|
存储 Kubernetes 网络安全
关于阿里云 Kubernetes 容器服务(ACK)添加镜像仓库的快速说明
本文介绍了在中国大陆地区因网络限制无法正常拉取 Docker 镜像的解决方案。作者所在的阿里云 Kubernetes 集群使用的是较旧版本的 containerd(1.2x),且无法直接通过 SSH 修改节点配置,因此采用了一种无需更改 Kubernetes 配置文件的方法。通过为 `docker.io` 添加 containerd 的镜像源,并使用脚本自动修改 containerd 配置文件中的路径错误(将错误的 `cert.d` 改为 `certs.d`),最终实现了通过多个镜像站点拉取镜像。作者还提供了一个可重复运行的脚本,用于动态配置镜像源。虽然该方案能缓解镜像拉取问题,
508 2
|
存储 Kubernetes 安全
当 Kubernetes 遇到机密计算,阿里巴巴如何保护容器内数据的安全?
8 月 26 日,我们发起了第 6 期 SIG Cloud-Provider-Alibaba 网研会直播。本次直播主要介绍了机密计算的概况, InclavareContainers 开源项目架构、已支持的功能和迭代计划,以及阿里云 ACK-TEE 的发展现状和规划。本文汇集了此次直播完整视频回顾及资料下载,并整理了直播过程中收集的问题和解答,希望能够对大家有所帮助~
当 Kubernetes 遇到机密计算,阿里巴巴如何保护容器内数据的安全?
|
存储 人工智能 Kubernetes
邀您参加 | 当 Kubernetes 遇到机密计算,阿里巴巴如何保护容器内数据的安全?
本次直播为第 5 期 SIG Cloud-Provider-Alibaba 网研会,我们邀请了阿里巴巴高级开发工程师 贾之光(花名:甲卓) 重点讲解《当 Kubernetes 遇到机密计算,阿里巴巴如何保护容器内数据的安全?》。
邀您参加 | 当 Kubernetes 遇到机密计算,阿里巴巴如何保护容器内数据的安全?
|
3月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
343 1

相关产品

  • 容器服务Kubernetes版
  • 推荐镜像

    更多