验证 Swarm 数据持久性 - 每天5分钟玩转 Docker 容器技术(104)-阿里云开发者社区

开发者社区> 云原生> 正文

验证 Swarm 数据持久性 - 每天5分钟玩转 Docker 容器技术(104)

简介: 上一节我们成功将 Rex-Ray Volume 挂载到了 Service。本节验证 Failover 时,数据不会丢失。 Scale Up 增加一个副本: docker service update --replicas 2 my_web 运行之前我们先推测一下,理想的结果应该是:swarm 在 swarm-worker2 上启动第二个副本,同时也将挂载 volume my_web。

上一节我们成功将 Rex-Ray Volume 挂载到了 Service。本节验证 Failover 时,数据不会丢失。

Scale Up

增加一个副本:

docker service update --replicas 2 my_web

运行之前我们先推测一下,理想的结果应该是:swarm 在 swarm-worker2 上启动第二个副本,同时也将挂载 volume my_web

对比一下实际的运行结果:

535.png

出现了一点复杂的状况:

  1. swarm 首先尝试在 swarm-worker2 上启动第二个副本,但在 mount volume 失败。

  2. 重试了三次都失败了。

  3. 最后在 swarm-worker1 成功启动第二个副本。

mount 失败的原因是:以 VirtualBox 为 backend 的 Rex-Ray volume 不支持同时 attach 到多个 Host。

需要注意:这实际上是 VirtualBox 的限制,而非 Rex-Ray。如果 backend 选择 Ceph RBD 就没有这个问题。

更新 Volume

更新 volume 的内容。

536.png

service 返回更新内容,数据已经同步到副本。

540.png

当前的实验环境如图所示:

538.png

Failover

现在模拟故障情况。shutdown 节点 swarm-worker1,过一会,所有副本都会迁移到 swarm-worker2

539.png
 

访问 service,以前更新的内容完整地保留了下来。

540.png

当前的实验环境如图所示:

541.png

Rex-Ray 作为 Swarm 的存储编排方案能够很好地支持跨主机 volume 管理,而且当容器在集群中迁移时 volume 也能够自动迁移。

Swarm 数据管理就讨论到这里,下一节我们学习 Service 的 Replicated Mode 和 Global Mode。

书籍:

1.《每天5分钟玩转Docker容器技术》
https://item.jd.com/16936307278.html

2.《每天5分钟玩转OpenStack》
https://item.jd.com/12086376.html

版权声明:本文首发在云栖社区,遵循云栖社区版权声明:本文内容由互联网用户自发贡献,版权归用户作者所有,云栖社区不为本文内容承担相关法律责任。云栖社区已升级为阿里云开发者社区。如果您发现本文中有涉嫌抄袭的内容,欢迎发送邮件至:developer2020@service.aliyun.com 进行举报,并提供相关证据,一经查实,阿里云开发者社区将协助删除涉嫌侵权内容。

分享:
云原生
使用钉钉扫一扫加入圈子
+ 订阅

云原生时代,是开发者最好的时代

其他文章