电商系统中混沌工程实践

本文涉及的产品
容器镜像服务 ACR,镜像仓库100个 不限时长
简介: 本场景主要介绍混沌工程的思想及其原理,体验故障演练(AHAS Chaos),阿里云在混沌工程领域的产品。

电商系统中混沌工程实践


1. 创建实验资源

在页面左侧,单击云产品资源下拉菜单,查看本次实验资源。

单击免费开通创建所需资源。

说明:

资源创建过程需要1~3分钟。完成实验资源的创建后,您可以在云产品资源列表查看已创建的资源信息,例如:IP地址、用户名和密码等。

2. 创建应用

  1. 点击右侧 图标,切换到远程桌面操作界面。
  2. 双击打开虚拟桌面的Firefox ESR浏览器,在RAM用户登录框中点击“下一步”,复制云产品资源列表中子用户密码,粘按CTRL+V把密码粘贴到密码输区,登陆子账户(后续在远程桌面里的粘贴操作均使用CTRL + V快捷键)。
  3. 复制容器服务ACK控制台地址,在FireFox浏览器打开新页签,粘贴并访问容器服务ACK控制台。
https://cs.console.aliyun.com/
  1. 集群页面,单击详情

  1. 在左侧导航栏,单击无状态

  1. 无状态页面,单击使用YAML创建资源

  1. 创建页面,复制以下代码并粘贴到模板框中,然后单击创建
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nacos-server-app
spec:
  selector:
    matchLabels:
      app: nacos-server-app
  template:
    metadata:
      labels:
        app: nacos-server-app
    spec:
      containers:
        - name: nacos-standalone
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/nacos:1.0.0
          ports:
            - containerPort: 8848
          env:
            - name: PREFER_HOST_MODE
              value: "hostname"
            - name: MODE
              value: "standalone"
          resources:
            limits:
              cpu: 1
              memory: 2048Mi
            requests:
              cpu: 200m
              memory: 512Mi
---
apiVersion: v1
kind: Service
metadata:
  name: nacos-server-app
spec:
  type: ClusterIP
  selector:
    app: nacos-server-app
  ports:
    - name: http
      port: 8848
      targetPort: 8848
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: cart-redis
spec:
  selector:
    matchLabels:
      app: cart-redis
  replicas: 1
  template:
    metadata:
      labels:
        app: cart-redis
    spec:
      containers:
        - name: cart-redis
          image: redis:alpine
          imagePullPolicy: IfNotPresent
          ports:
            - containerPort: 6379
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m
              memory: 128Mi
---
apiVersion: v1
kind: Service
metadata:
  labels:
    app: cart-redis
  name: cart-redis
spec:
  ports:
    - port: 6379
      targetPort: 6379
  selector:
    app: cart-redis
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: cartservice-app
spec:
  selector:
    matchLabels:
      app: cartservice-app
  template:
    metadata:
      labels:
        app: cartservice-app
    spec:
      containers:
        - name: cartservice-app
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/cartservice:1.0.0
          imagePullPolicy: Always
          env:
            - name: dubbo.registry.address
              value: "nacos://nacos-server-app:8848"
            - name: spring.cloud.nacos.discovery.server-addr
              value: "nacos-server-app:8848"
            - name: spring.cloud.nacos.config.server-addr
              value: "nacos-server-app:8848"
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m
              memory: 128Mi
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: recommendation-service
spec:
  selector:
    matchLabels:
      app: recommendation-service
  template:
    metadata:
      labels:
        app: recommendation-service
        version: 1.0.0-SNAPSHOT
    spec:
      containers:
        - name: recommendation-service
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/recomendationservice:1.0.0
          # imagePullPolicy: Always
          env:
            - name: dubbo.registry.address
              value: "nacos://nacos-server-app:8848"
            - name: spring.cloud.nacos.discovery.server-addr
              value: "nacos-server-app:8848"
            - name: spring.cloud.nacos.config.server-addr
              value: "nacos-server-app:8848"
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m
              memory: 128Mi
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: product-mysql
spec:
  selector:
    matchLabels:
      app: product-mysql
  replicas: 1
  strategy:
    type: Recreate
  template:
    metadata:
      labels:
        app: product-mysql
    spec:
      containers:
        - args:
            - --character-set-server=utf8mb4
            - --collation-server=utf8mb4_unicode_ci
          env:
            - name: MYSQL_DATABASE
              value: product
            - name: MYSQL_ROOT_PASSWORD
              value: productservice
          image: mysql:5.6
          name: product-mysql
          ports:
            - containerPort: 3306
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m
              memory: 128Mi
---
apiVersion: v1
kind: Service
metadata:
  labels:
    app: product-mysql
  name: product-mysql
spec:
  ports:
    - port: 3306
      targetPort: 3306
  selector:
    app: product-mysql
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: product-service
spec:
  selector:
    matchLabels:
      app: product-service
  template:
    metadata:
      labels:
        app: product-service
        version: 1.0.0-SNAPSHOT
    spec:
      containers:
        - name: product-service
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/productservice:1.0.0
          imagePullPolicy: Always
          env:
            - name: dubbo.registry.address
              value: "nacos://nacos-server-app:8848"
            - name: spring.cloud.nacos.discovery.server-addr
              value: "nacos-server-app:8848"
            - name: spring.cloud.nacos.config.server-addr
              value: "nacos-server-app:8848"
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m
              memory: 128Mi
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: checkout-mysql
spec:
  selector:
    matchLabels:
      app: checkout-mysql
  replicas: 1
  strategy:
    type: Recreate
  template:
    metadata:
      labels:
        app: checkout-mysql
    spec:
      containers:
        - args:
            - --character-set-server=utf8mb4
            - --collation-server=utf8mb4_unicode_ci
          env:
            - name: MYSQL_DATABASE
              value: checkout
            - name: MYSQL_ROOT_PASSWORD
              value: checkoutservice
          image: mysql:5.6
          name: checkout-mysql
          ports:
            - containerPort: 3306
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m
              memory: 128Mi
---
apiVersion: v1
kind: Service
metadata:
  labels:
    app: checkout-mysql
  name: checkout-mysql
spec:
  ports:
    - port: 3306
      targetPort: 3306
  selector:
    app: checkout-mysql
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: checkout-service
spec:
  selector:
    matchLabels:
      app: checkout-service
  template:
    metadata:
      labels:
        app: checkout-service
    spec:
      containers:
        - name: checkout-service
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/checkoutservice:health
          imagePullPolicy: Always
          ports:
            - name: liveness-port
              containerPort: 8080
              protocol: TCP
          env:
            - name: dubbo.registry.address
              value: "nacos://nacos-server-app:8848"
            - name: spring.cloud.nacos.discovery.server-addr
              value: "nacos-server-app:8848"
            - name: spring.cloud.nacos.config.server-addr
              value: "nacos-server-app:8848"
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m
              memory: 128Mi
          livenessProbe:
            failureThreshold: 3
            httpGet:
              path: /health
              port: liveness-port
              scheme: HTTP
            initialDelaySeconds: 5
            periodSeconds: 10
            successThreshold: 1
            timeoutSeconds: 1
          startupProbe:
            failureThreshold: 3
            httpGet:
              path: /health
              port: liveness-port
              scheme: HTTP
            initialDelaySeconds: 40
            periodSeconds: 5
            successThreshold: 1
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: front-end
spec:
  selector:
    matchLabels:
      app: front-end
  template:
    metadata:
      labels:
        app: front-end
    spec:
      containers:
        - name: front-end
          image: registry.cn-beijing.aliyuncs.com/ahas_demo/frontend:async-test
          imagePullPolicy: Always
          ports:
            - name: liveness-port
              containerPort: 8080
              protocol: TCP
          env:
            - name: dubbo.registry.address
              value: "nacos://nacos-server-app:8848"
            - name: spring.cloud.nacos.discovery.server-addr
              value: "nacos-server-app:8848"
            - name: spring.cloud.nacos.config.server-addr
              value: "nacos-server-app:8848"
          resources:
            limits:
              cpu: 1
              memory: 512Mi
            requests:
              cpu: 200m
              memory: 128Mi
          livenessProbe:
            failureThreshold: 3
            httpGet:
              path: /health
              port: liveness-port
              scheme: HTTP
            initialDelaySeconds: 5
            periodSeconds: 10
            successThreshold: 1
            timeoutSeconds: 1
          startupProbe:
            failureThreshold: 3
            httpGet:
              path: /health
              port: liveness-port
              scheme: HTTP
            initialDelaySeconds: 60
            periodSeconds: 5
            successThreshold: 1
---
apiVersion: v1
kind: Service
metadata:
  name: front-end
spec:
  type: ClusterIP
  selector:
    app: front-end
  ports:
    - name: http
      port: 8080
      targetPort: 8080
---
apiVersion: v1
kind: Service
metadata:
  name: frontend-external
spec:
  type: LoadBalancer
  selector:
    app: front-end
  ports:
    - name: http
      port: 8080
      targetPort: 8080

  1. 在左侧导航栏,单击无状态
  2. 无状态页面,等待几分钟,单击刷新,容器组数量全部为1/1之后,表示应用部署完成。

注意 :

如果出现某服务无法正常启动的情况,您只需单击目标服务右侧操作列表下的更多>重新部署即可。如果遇到front-end无法正常启动的情况,此时您需要先将checkoutservice重新部署后,再将front-end重新部署即可。

  1. 无状态页面,单击front-end

  1. front-end服务页面,单击访问方式页签。

  1. front-end服务的访问方式页签,单击frontend-external服务的外部端点。

若返回如下页面,表示应用部署成功。

  1. 商品概览页面,单击任意商品,例如Air Jordan Legacy 312

  1. 商品详情页面,单击添加购物车

  1. 购物车页面,单击确认订单

若返回如下页面,表示订单支付成功。

3. 安装探针

  1. 回到容器服务控制台页面,单击左侧导航栏上方的 图标。

  1. 集群列表页面的左侧导航栏中,单击应用市场

  1. 应用市场页面,单击ack-ahas-pilot

  1. 在ack-ahas-pilot的详情页面,单击一键部署

5. 在创建面板的基本信息中,选择您的ACK集群,单击下一步

6. 在创建面板的参数配置中,单击确定

返回如下页面,表示探针已经部署完成。

4. 通过架构感知查看系统整体架构

  1. 复制应用高可用服务控制台地址,在Firefox浏览器打开新页签,粘贴并访问容器服务应用高可用服务控制台。
https://chaos.console.aliyun.com/
  1. 概览页面顶部,选择资源所在地域。例如下图中,地域切换为华东1(杭州)。

  1. 在左侧导航栏,单击故障演练>架构感知

  1. 架构地图页面,单击Kubernetes监控视图卡片中的查看视图

  1. 架构地图页面,打开Kubernetes监控视图下拉列表,选择命令空间为default,然后单击确定即可查看实验资源的Kubernetes监控视图。

5. 自动恢复场景演练

在分布式系统设计中有一种容错策略是故障恢复(failback),通过健康检查等机制,能在机器或者应用出现问题时自动的进行重新部署。我们利用Chaos进行故障演练,测试我们的系统是否具有这样的能力

  1. 进行稳态假设。定义一个稳态指标,来评估系统的健康状态并且在实施混沌过程当中进行监控和处理。

我们将稳态定义为 能访问我们的frontend界面,并正常使用各种购物车、下单等功能。

  1. 模拟真实事件。

2.1 在左侧导航栏中,单击演练场景

2.2 演练场景页面,选择JAVA应用>容器内Java延迟>创建演练

2.3 演练配置页面,完成以下操作

(1)设置演练名称

(2)演练对象配置向导中,演练应用选择front-end,应用分组选择front-end-group,机器列表选择任意一台机器,单击容器内Java延迟

(3)在容器内Java延迟面板中,依次输入类的全限定名方法名进程关键字目标容器名称,单击关闭

  • 类的全限定名:输入com.alibabacloud.hipstershop.web.HealthController
  • 方法名:输入health
  • 进程关键字:输入java
  • 目标容器名称:选择front-end

(4)在演练内容区域中,单击保存

(5)单击下一步

(6)在全局配置监控策略区域,单击新增策略

(7)在新增策略对话框中,选择业务监控>业务状态观察(Http),单击确定

(8)在业务状态观察(Http)面板中,请求类型选择get,URL输入http://<frontend的外部端点>/

说明 :

front-end的外部端点在容器服务ACK控制台front-end服务的访问方式页签中获取。

(9)在全局配置配置向导中,单击下一步

(10)在成功对话框中,单击演练详情

2.4 在演练详情页面,单击演练

2.5 在开始执行演练对话框中,单击确认

  1. 检测实验影响。

3.1 在演练记录详情页面,查看业务状态观测(Http)时序图。您可以看到health接口的调用在遇到故障之后,先降低,然后马上自动恢复至正常状态,说明我们的设计奏效了。

3.2 切换回容器服务ACK控制台,在front-end服务页面,单击事件页签。

您可以看到front-end自动的进行了扩容。

  1. 终止实验。

4.1 切换回应用高可用服务控制台。在演练记录详情页面中,单击终止

4.2 在停止演练对话框中,单击确定

4.3 等待演练场景终止之后,在结果反馈对话框中,单击确定

6. 强弱依赖场景演练

在微服务架构中,各个服务之间存在许多依赖关系。但是当一个不重要的弱依赖宕机时,一个健壮的系统应该仍然能够正常的运行。我们利用Chaos进行故障演练,测试我们的系统处理强弱依赖的能力如何。

  1. 进行稳态假设。

1.1 切换回容器服务ACK控制台,单击front-end的外部端点。

1.2 在Hipster Shop页面,多次刷新页面。您可以看到页面商品的排序每一次都不一样。您可以理解为商品推荐服务会根据个性化进行推荐,使产品存在优先级。因此我们将稳态定义为,每次刷新页面,商品的排序不同。

  1. 模拟真实事件。

2.1 切换回应用高可用服务控制台。在左侧导航栏,单击演练场景

2.2 演练场景页面,选择JAVA应用>容器内Java延迟>创建演练

2.3 在演练配置页面,完成以下操作:

(1)设置演练名称

(2)在演练对象配置向导中,演练应用选择recommendation-service,应用分组选择recommendation-service-group,机器列表选择机器,单击添加演练内容

(3)在容器内Java延迟面板中,依次输入类的全限定名方法名、进程关键字目标容器名称,单击关闭。

  • 类的全限定名:输入com.alibabacloud.hipstershop.recomendationservice.service.RecommendationServiceImpl
  • 方法名:输入sortProduct
  • 进程关键字:输入java
  • 目标容器名称:选择recommendation-service

(4)在演练对象中,单击保存

(5)单击下一步

(6)在全局配置中,单击下一步

(7)在成功对话框中,单击演练详情

2.4 在演练详情页面,单击演练

2.5 在开始执行演练对话框中,单击确认

  1. 检测实验影响。

3.1 切换回容器服务ACK控制台。在无状态页面,单击front-end

3.2 在front-end页面,单击访问方式页签,然后单击front-end的外部端点。

3.3 在Hipster Shop页面,多次刷新页面。您可以发现每次刷新,产品顺序不会改变。说明推荐服务宕机,但并没有影响别的服务。

  1. 终止实验。

4.1 切换至应用高可用服务控制台,在演练记录详情页面,单击终止

4.2 在停止演练对话框中,单击确定

4.3 在结果反馈对话框中,单击确定

7. 失败重试场景演练

在微服务架构中,一个大系统被拆分成多个小服务,小服务之间存在大量RPC调用,经常可能因为网络抖动等原因导致RPC调用失败,这时候使用重试机制可以提高请求的最终成功率,减少故障影响,让系统运行更稳定。我们通过利用Chaos,给系统注入失败,看看系统失败重试的性能如何。

  1. 进行稳态假设。

1.1 切换回容器服务ACK控制台,在无状态页面,单击cartservice-app

1.2 在cartservice-app页面,单击伸缩

1.3 在伸缩对话框中,将所需容器组数量更改为2,单击确定

待状态变为Running,表示容器组扩容成功。

1.4 切换至Hispter Shop页面,单击购物车

返回如下页面,表示购物车服务正常。因此我们将稳态定义为,能够正常使用frontend的购物车功能。

  1. 模拟真实事件。

2.1 切换回应用高可用服务控制台,在左侧导航栏,单击演练场景

2.2 演练场景页面,选择JAVA应用>抛异常>容器内Java跑出自定义异常>创建演练

2.3 在演练配置页面,完成以下操作:

(1)设置演练名称

(2)在演练对象中,演练应用选择cartservice-app,应用分组选择cartservice-app-group,机器列表选择任意一台机器,单击添加演练内容

(3)在容器内Java延迟抛出自定义异常面板中,依次输入方法名、类的全限定名异常进程关键字目标容器名称,单击关闭

  • 方法名:输入viewCart
  • 类的全限定名:输入com.alibabacloud.hipstershop.cartserviceprovider.service.CartServiceImpl
  • 异常:输入java.lang.Exception
  • 进程关键字:输入java
  • 目标容器名称:选择cartservice-app。

(4)在演练对象中,单击保存

(5)单击下一步

(6)在全局配置中,单击下一步

(7)在成功对话框中,单击演练详情

2.4 在演练详情页面,单击演练

2.5 在开始执行演练对话框中,单击确认

  1. 检测实验影响。

3.1 切换至Hispter Shop页面,单击购物车

返回如下页面,您发现无法访问购物车。这是因为流量并没有切换到没有宕机的那台机器,同时 说明我们的系统并没有失败重试的能力,或者是一开始就没有设计,或者是没有生效。通过这次故障注入,我们发现了系统的缺陷。

3.2 切换至应用高可用服务控制台,在演练记录详情页面,单击终止

3.3 在停止演练对话框中,单击确定

3.4 在结果反馈对话框中,单击确定

返回如下页面,表示演练结束。

8. 微服务演练

在体验了上述三个场景演练之后,我们对混沌工程有了初步的了解,也掌握了应用高可用服务的基本功能。但是这样手动部署参数的过程还是比较繁琐的。接下来我们体验一下更为方便快捷的强弱依赖治理。

  1. 切换至应用高可用服务控制台。在左侧导航栏中,单击微服务演练

并选择强弱依赖治理页面。

  1. 强弱依赖治理页面中,单击创建治理方案

  1. 创建治理方案的配置向导页面,完成以下操作。

3.1 在应用接入中,自定义方案名称,治理应用选择frontend,单击下一步

3.2 在强弱依赖治理以30天为治理周期对话框中,单击确认

3.3 在依赖分析中,等待分析完成,单击下一步

3.4 在依赖预判中,自行选择依赖对象的强弱依赖预判,例如nacos-standalone和checkoutservice的强弱依赖预判可选择强依赖,其他依赖对象默认弱依赖,然后单击下一步

3.5 在依赖验证中,选择任意用例进行验证。例如选择frontend与nacos-standalone强弱依赖验证用例,单击去验证

3.6 在去验证前的参数确认对话框中,单击确定验证

注意:

如果窗口没有跳转,请注意跳转是否被拦截,请手动解除

  1. 在演练详情页面中,单击演练

  1. 开始执行演练对话框中,单击确认

  1. 切换至Hipster Shop页面,单击网页的任意功能。您可以发现Hipster Shop网页和相关功能均可以正常访问,说明frontend服务与nacos-standalone服务是弱依赖关系。
  2. 切换至应用高可用服务控制台,在演练记录详情页面,单击终止

  1. 停止演练对话框中,单击确定

  1. 结果反馈对话框中,结论选择不符合预期验证结果选择弱依赖,单击确定,返回强弱依赖治理

  1. 在依赖验证中,您可以验证其他用例,验证完成后,单击方案归档

  1. 您确定要归档此方案吗对话框中,单击确认归档

返回如下页面,表示归档完毕。

您还可以通过使用MSHA快速体验异地、同城多活容灾。动手实验室地址:https://developer.aliyun.com/adc/scenario/998a993afe624e3eadcf5f8f6b791064

实验链接https://developer.aliyun.com/adc/scenario/e9b27357ab9c4785bc7f43fb62f872e3

相关实践学习
巧用云服务器ECS制作节日贺卡
本场景带您体验如何在一台CentOS 7操作系统的ECS实例上,通过搭建web服务器,上传源码到web容器,制作节日贺卡网页。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
测试技术
「业务架构」需求工程——需求验证(第4部分)
「业务架构」需求工程——需求验证(第4部分)
|
消息中间件 架构师 前端开发
单体案例和分布式案例研究
单体案例和分布式案例研究
144 0
|
消息中间件 运维 Prometheus
我对业务服务运维架构的一些设计思路
业务性的运维管理从几个维度,主要是IaaS层,中间件层,业务层,运行状态层几个进行的监控管理,结合人工,手工,自动化能力角度进行设计,去掉重复的手工和低阶的运维,使业务运维偏向于高阶的思考,提升整个运维的管理能力
|
消息中间件 监控 NoSQL
项目中怎样做技术选型
项目中怎样做技术选型
项目中怎样做技术选型
|
Kubernetes Cloud Native Java
去哪儿网基于ChaosBlade的混沌工程实践
微服务架构已经在去哪儿网(Qunar)实施多年,微服务应用数量达到数千之多,随着服务之间的调用链路越来越复杂,故障频频发生,给公司带来巨大的经济损失,稳定性建设工作就成为了一项重要的工作。从 2010 年 Netflix 提出通过 Chaos Engineering 的方式提升系统稳定性之后,到今天 Chaos Engineering 已经被证明是一种有效的发现系统弱点,建立对系统抵御生产环境中失控条件的能力以及信心的有效手段。从 2019 年底去哪儿网也结合自身的技术体系开始进行混沌工程相关的探索,下面就来介绍下我们的实践经验。
去哪儿网基于ChaosBlade的混沌工程实践
|
架构师 Dubbo Java
微服务重构四步法
微服务重构四步法
589 0
微服务重构四步法
|
运维 自然语言处理 监控
从甲方到乙方,如何做好混沌工程的行业化落地
2021 年 12 月 7 日,由信通院主办、混沌工程实验室承办的“混沌工程技术沙龙-金融行业精品专场”沙龙在北京举办,来自阿里云的技术专家穹谷分享“从甲方到乙方,如何做好混沌工程的行业化落地”。
从甲方到乙方,如何做好混沌工程的行业化落地
|
SQL 监控 专有云
分布式服务架构下的混沌工程实践
本文来自阿里巴巴高可用架构团队高级开发工程师肖长军(花名穹谷)在 GIAC(全球互联网架构大会)上的分享,包含三部分内容:(阿里巴巴中间件公众号对话框发送“混沌工程”,获取分享PPT) 混沌工程的定义、价值、原则和流程; 混沌工程如何在企业中落地,以及 ChaosBlade 和混沌实验平台 AHAS Chaos 架构设计; 结合两个具体案例介绍了分布式服务下的混沌工程实践; 大家好,我是来自阿里的肖长军,今天给大家分享混沌工程在分布式服务架构下的具体实践。
21703 14
|
设计模式 算法 程序员
【深度】怎样做好微服务架构设计
关注公众号“达摩院首座”,了解开发者最真实生活
476 0
【深度】怎样做好微服务架构设计
下一篇
无影云桌面