有状态容器业务基于ACK多可用区部署实践

本文涉及的产品
容器服务 Serverless 版 ACK Serverless,952元额度 多规格
容器服务 Serverless 版 ACK Serverless,317元额度 多规格
容器镜像服务 ACR,镜像仓库100个 不限时长
简介: 业务背景和要求为了让有状态应用在k8s中部署可以获得尽可能高的可用性,对业务多可用区的部署带来了更高的要求::为了更高的可用性,需要让业务pod尽量均衡的分布在多个可用区中业务pod要可以分别在不同的可用区中挂载上云盘做持久化,需要保障pod和disk始终在一个AZ(云盘不可以跨区挂载)如果一个pod或一个节点发生故障,需要第一时间将pod重新调度到同可用区的另一台可用机器上去,机器可以是弹性新建

业务背景和要求

为了让有状态应用在k8s中部署可以获得尽可能高的可用性,对业务多可用区的部署带来了更高的要求::

  1. 为了更高的可用性,需要让业务pod尽量均衡的分布在多个可用区中
  2. 业务pod要可以分别在不同的可用区中挂载上云盘做持久化,需要保障pod和disk始终在一个AZ(云盘不可以跨区挂载)
  3. 如果一个pod或一个节点发生故障,需要第一时间将pod重新调度到同可用区的另一台可用机器上去,机器可以是弹性新建的,但为了故障能最快速的自愈,该机器最好是预热在节点池中的,pod可以第一时间调度到同区的可用节点上,且可以重新挂载使用原先使用的云盘
  4. 如果业务需要扩容,可以自动完成资源扩充,云盘创建挂载,且尽量做到多可用区均衡部署

方案规划

有状态业务通常为了存储有更高的io性能会选用块存储作为存储设备,但因为块存储只能挂载到相同可用区下的ECS实例上,那么有状态业务跨区部署时,就需要考虑如何保证应用pod及对应的块存储资源始终在一个可用区,不会由于业务pod迁移到了其他可用区无法挂载之前使用的块存储设备而造成故障,为了保障业务的可用性及运维人员的可操作性,我们规划设计如下:

  1. 在三个可用区,分别建一个弹性节点池,配置统一的标签和污点,选用统一的机型,且保证选用的三个可用区有同样的云盘可以使用(比如ESSD),保证只有sts业务可以调度到该组资源中去,避免和其他业务混合部署带来性能或可用性的干扰
  2. 定义一个storageclass,type定义cloud_essd,cloud_ssd,cloud_efficiency(essd会优先创建),同时配置volumeBindingMode为WaitForFirstConsumer,确保在多可用区的集群中调度时,先创建pod,再根据pod所在可用区信息创建云盘
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: sts-sc
provisioner: diskplugin.csi.alibabacloud.com
parameters:
  type: cloud_essd,cloud_ssd,cloud_efficiency
  #regionId: cn-beijing
  #zoneId: cn-beijing-h,cn-beijing-g,cn-beijing-k
  #fstype: ext4
  #diskTags: "a:b,b:c"
  #encrypted: "false"
  #performanceLevel: PL1
  #volumeExpandAutoSnapshot: "forced" #该设置仅在type为"cloud_essd"时生效。
volumeBindingMode: WaitForFirstConsumer
reclaimPolicy: Retain
allowVolumeExpansion: true
  1. 配合上占位pod的能力,用占位pod提前扩容预热一台计算节点,有状态pod可自动调度到占位pod所在节点上,占位pod被驱逐后自动再扩容一台节点做预留

方案落地——多可用区实现同时快速弹性扩容

多可用区实现同时快速弹性扩容,可参考:https://help.aliyun.com/document_detail/410611.html

  1. 在三个可用区创建三个弹性节点池,H, K, G, 分别配置了如下label和污点
label:
  avaliable_zone: k
  usage: sts
taints:
- effect: NoSchedule
  key: usage
  value: sts

label:
  avaliable_zone: g
  usage: sts
taints:
- effect: NoSchedule
  key: usage
  value: sts

label:
  avaliable_zone: h
  usage: sts
taints:
- effect: NoSchedule
  key: usage
  value: sts

  1. 部署placeholder及占位deployment
deployments:
- affinity: {}
  annotations: {}
  containers:
  - image: registry-vpc.cn-beijing.aliyuncs.com/acs/pause:3.1
    imagePullPolicy: IfNotPresent
    name: placeholder
    resources:
      requests:
        cpu: 3000m
        memory: 6
  imagePullSecrets: {}
  labels: {}
  name: ack-place-holder-h
  nodeSelector:
    avaliable_zone: h
  replicaCount: 1
  tolerations:
  - effect: NoSchedule
    key: usage
    operator: Equal
    value: sts
- affinity: {}
  annotations: {}
  containers:
  - image: registry-vpc.cn-beijing.aliyuncs.com/acs/pause:3.1
    imagePullPolicy: IfNotPresent
    name: placeholder
    resources:
      requests:
        cpu: 3000m
        memory: 6
  imagePullSecrets: {}
  labels: {}
  name: ack-place-holder-k
  nodeSelector:
    avaliable_zone: k
  replicaCount: 1
  tolerations:
  - effect: NoSchedule
    key: usage
    operator: Equal
    value: sts
- affinity: {}
  annotations: {}
  containers:
  - image: registry-vpc.cn-beijing.aliyuncs.com/acs/pause:3.1
    imagePullPolicy: IfNotPresent
    name: placeholder
    resources:
      requests:
        cpu: 3000m
        memory: 6
  imagePullSecrets: {}
  labels: {}
  name: ack-place-holder-g
  nodeSelector:
    avaliable_zone: g
  replicaCount: 1
  tolerations:
  - effect: NoSchedule
    key: usage
    operator: Equal
    value: sts
fullnameOverride: ""
nameOverride: ""
podSecurityContext: {}
priorityClassDefault:
  enabled: true
  name: default-priority-class
  value: -1

可以看到,当前集群中,先前定义的3个节点池中,都弹起了一个节点,分别都有一个占位的deployment将pod部署在节点中:

k get deployment                       
NAME                 READY   UP-TO-DATE   AVAILABLE   AGE
ack-place-holder-g   1/1     1            1           18m
ack-place-holder-h   1/1     1            1           18m
ack-place-holder-k   1/1     1            1           18m

# pod分布在三个可用区的三个节点中
k get po -o wide           
NAME                                  READY   STATUS    RESTARTS   AGE    IP            NODE                      NOMINATED NODE   READINESS GATES
ack-place-holder-g-7b87d547d6-2h92f   1/1     Running   0          14m    10.4.48.187   worker.10.4.48.186.g7ne   <none>           <none>
ack-place-holder-h-5cd56f49ff-qpw44   1/1     Running   0          14m    10.1.86.119   worker.10.0.63.207.g7ne   <none>           <none>
ack-place-holder-k-6b5c96457d-vjzhp   1/1     Running   0          14m    10.2.57.72    worker.10.2.57.70.g7ne    <none>           <none>

此时,我们部署一个sts应用:

apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: nginx-dynamic
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx
  serviceName: nginx
  template:
    metadata:
      labels:
        app: nginx
        usage: sts
    spec:
      affinity:
        podAntiAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
          - labelSelector:
              matchExpressions:
              - key: usage
                operator: In
                values:
                - sts
            topologyKey: kubernetes.io/hostname
            #topologyKey: topology.kubernetes.io/zone
      nodeSelector:
        usage: sts
      tolerations:
      - key: "usage"
        operator: "Equal"
        value: "sts"
        effect: "NoSchedule"
      containers:
      - name: nginx
        image: nginx
        ports:
        - containerPort: 80
          name: web
        resources:
          requests:
            cpu: 2
          limits:
            cpu: 4
        volumeMounts:
        - name: disk-essd
          mountPath: /data
  volumeClaimTemplates:
  - metadata:
      name: disk-essd
    spec:
      accessModes: [ "ReadWriteMany" ]
      storageClassName: "sts-sc"
      resources:
        requests:
          storage: 20Gi

部署上面的statefulset后,可以看到,sts的pod立刻驱逐了占位pod,开始部署业务pod:

k get po -w                                                                  
NAME                                  READY   STATUS              RESTARTS   AGE
ack-place-holder-g-7b87d547d6-vsv8z   0/1     Pending             0          9s
ack-place-holder-h-5cd56f49ff-qpw44   1/1     Running             0          18m
ack-place-holder-k-6b5c96457d-vjzhp   1/1     Running             0          18m
nginx-dynamic-0                       0/1     ContainerCreating   0          9s

被驱逐的占位pod,立马开始触发对应可用区的弹性节点池的扩容,预热一台机器做资源补充:

k get po   
NAME                                  READY   STATUS              RESTARTS   AGE
ack-place-holder-g-7b87d547d6-vsv8z   1/1     Running             0          4m49s
ack-place-holder-h-5cd56f49ff-dbhns   1/1     Running             0          4m17s
ack-place-holder-k-6b5c96457d-xxjqs   0/1     ContainerCreating   0          3m45s
nginx-dynamic-0                       1/1     Running             0          4m49s
nginx-dynamic-1                       1/1     Running             0          4m17s
nginx-dynamic-2                       1/1     Running             0          3m45s

最终,可以看到sts的业务pod调度到了之前占位pod所在的三台机器上(worker.10.4.48.186.g7ne, worker.10.0.63.207.g7ne ,worker.10.2.57.70.g7ne),同时占位pod调度到了新扩容的三台节点上:

k get po -o wide 
NAME                                  READY   STATUS    RESTARTS   AGE     IP            NODE                      NOMINATED NODE   READINESS GATES
ack-place-holder-g-7b87d547d6-vsv8z   1/1     Running   0          7m26s   10.4.48.190   worker.10.4.48.189.g7ne   <none>           <none>
ack-place-holder-h-5cd56f49ff-dbhns   1/1     Running   0          6m54s   10.1.86.121   worker.10.0.63.208.g7ne   <none>           <none>
ack-place-holder-k-6b5c96457d-xxjqs   1/1     Running   0          6m22s   10.2.57.74    worker.10.2.57.73.g7ne    <none>           <none>
nginx-dynamic-0                       1/1     Running   0          7m26s   10.4.48.187   worker.10.4.48.186.g7ne   <none>           <none>
nginx-dynamic-1                       1/1     Running   0          6m54s   10.1.86.119   worker.10.0.63.207.g7ne   <none>           <none>
nginx-dynamic-2                       1/1     Running   0          6m22s   10.2.57.72    worker.10.2.57.70.g7ne    <none>           <none>

总结

通过上述方法,我们成功实现了:

  1. pod多区分布
  2. 根据初次创建的pod所在可用区来创建并挂载云盘
  3. 后续pod重建后,可自动根据云盘所在的可用区信息实现同可用区的正确调度
  4. 如果需要扩容,scale pod可以自动通过占位pod极速拉起业务pod,同时占位pod可继续扩容资源做储备

另外,需要特别注意的是:

  1. 本方案只是从部署层面,帮助有状态应用尽量的高可用性,但有状态的应用,中间件及DB等类型的业务,本身状态数据的一致性并不可以通过这个方式来保障,集群本身的数据一致性机制才是实现状态一致性的核心
  2. 当前只是采用了相对简单的podAntiAffinity来做多区部署,并没有绝对意义上的多区均衡部署,后续结合上k8s的topologySpread机制,可以让多区部署更均衡
相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
2天前
|
运维 Kubernetes 安全
《阿里云产品四月刊》—享道出行:容器弹性技术驱动下的智慧出行稳定性实践(1)
阿里云瑶池数据库云原生化和一体化产品能力升级,多款产品更新迭代
|
2天前
|
弹性计算 Cloud Native 数据库
《阿里云产品四月刊》—享道出行:容器弹性技术驱动下的智慧出行稳定性实践(2)
阿里云瑶池数据库云原生化和一体化产品能力升级,多款产品更新迭代
|
2天前
|
弹性计算 Serverless 调度
《阿里云产品四月刊》—享道出行:容器弹性技术驱动下的智慧出行稳定性实践(3)
阿里云瑶池数据库云原生化和一体化产品能力升级,多款产品更新迭代
|
2天前
|
弹性计算 Kubernetes 调度
《阿里云产品四月刊》—享道出行:容器弹性技术驱动下的智慧出行稳定性实践(4)
阿里云瑶池数据库云原生化和一体化产品能力升级,多款产品更新迭代
|
3天前
|
Kubernetes 应用服务中间件 nginx
K8s高可用集群二进制部署-V1.20
2.4 部署Etcd集群 以下在节点1上操作,为简化操作,待会将节点1生成的所有文件拷贝到节点2和节点3. 1. 创建工作目录并解压二进制包 mkdir /opt/etcd/{bin,cfg,ssl} -p tar zxvf etcd-v3.4.9-linux-amd64.tar.gz mv etcd-v3.4.9-linux-amd64/{etcd,etcdctl} /opt/etcd/bin/
|
1天前
|
消息中间件 Kubernetes Android开发
消息队列 MQ产品使用合集之如何在kubernetes环境里面部署
消息队列(MQ)是一种用于异步通信和解耦的应用程序间消息传递的服务,广泛应用于分布式系统中。针对不同的MQ产品,如阿里云的RocketMQ、RabbitMQ等,它们在实现上述场景时可能会有不同的特性和优势,比如RocketMQ强调高吞吐量、低延迟和高可用性,适合大规模分布式系统;而RabbitMQ则以其灵活的路由规则和丰富的协议支持受到青睐。下面是一些常见的消息队列MQ产品的使用场景合集,这些场景涵盖了多种行业和业务需求。
|
2天前
|
Cloud Native 数据库 容器
《阿里云产品四月刊》—享道出行:容器弹性技术驱动下的智慧出行稳定性实践(5)
阿里云瑶池数据库云原生化和一体化产品能力升级,多款产品更新迭代
|
3天前
|
前端开发 Devops 测试技术
阿里云云效产品使用问题之更换所部署的环境关联的ACK集群该如何实现
云效作为一款全面覆盖研发全生命周期管理的云端效能平台,致力于帮助企业实现高效协同、敏捷研发和持续交付。本合集收集整理了用户在使用云效过程中遇到的常见问题,问题涉及项目创建与管理、需求规划与迭代、代码托管与版本控制、自动化测试、持续集成与发布等方面。
|
3天前
|
Kubernetes 安全 测试技术
超大规模商用 K8s 场景下,阿里巴巴如何动态解决容器资源的按需分配问题?
超大规模商用 K8s 场景下,阿里巴巴如何动态解决容器资源的按需分配问题?
|
3天前
|
运维 Serverless 文件存储
函数计算产品使用问题之在利用Docker镜像部署应用时,容器内的应用如何能访问函数计算配置的NAS挂载
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。

相关产品

  • 容器服务Kubernetes版