使用docker-compose搭建zookeeper集群

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: 使用docker-compose搭建zookeeper集群

# 技术



# 集群规划


  • 创建包含3个(奇数个)实例的zookeeper集群。
  • 通过docker-compose创建3个docker-zookeeper镜像,映射的宿主机端口分别为: 2081,2182,2183,集群实例myid分别为1,2,3


# 编写docker-compose



image.png


  • 环境变量

    image.png
  • 集群模式下的环境变量

    image.png
  • 编写docker-compose

# docker compose版本
version: "3.1"
services:
  # 节点1
  zk1:
    # 镜像名称
    image: zookeeper
    # 容器名称
    container_name: zk1.docker
    # docker重启后自动重启容器
    restart: always
    # 当前容器主机名
    hostname: zk1.docker
    # 端口 宿主机:容器
    ports:
      - 2181:2181
    # 环境变量
    environment:
      # myid,一个集群内唯一标识一个节点
      ZOO_MY_ID: 1
      # 集群内节点列表
      ZOO_SERVERS:
        - server.1=zk1.docker:2888:3888;2181
        - server.2=zk2.docker:2888:3888;2181
        - server.3=zk3.docker:2888:3888;2181
  # 节点2
  zk2:
    image: zookeeper
    container_name: zk2.docker
    restart: always
    hostname: zk2.docker
    ports:
      - 2182:2181
    environment:
      ZOO_MY_ID: 2
      ZOO_SERVERS:
        - server.1=zk1.docker:2888:3888;2181
        - server.2=zk2.docker:2888:3888;2181
        - server.3=zk3.docker:2888:3888;2181
  # 节点3
  zk3:
    image: zookeeper
    container_name: zk3.docker
    restart: always
    hostname: zk3.docker
    ports:
      - 2183:2181
    environment:
      ZOO_MY_ID: 3
      ZOO_SERVERS:
        - server.1=zk1.docker:2888:3888;2181
        - server.2=zk2.docker:2888:3888;2181
        - server.3=zk3.docker:2888:3888;2181
  • 运行docker-compose脚本
    docker-compose -f zk-replicated.yml up


# 检查集群运行状态


  • 镜像列表
    image.png
    image.png
  • 查看节点的状态(容器启动顺序为zk1, zk2, zk3)
    bin/zkServer.sh status
  • zk1:
  • Mode: follower

    image.png
  • zk2:
  • Mode: leader

    image.png
  • zk3:
  • Mode: follower

    image.png


  • 三个节点都启动成功,且因为启动循序是zk1, zk2, zk3,所以根据zk的选举算法,选举zk2为leader,其他的为follower。
  • 选举过程:
  1. 启动zk1(myid=1),投自己一票,此时因为集群大小为3,不够半数票,无法完成选举,所以状态为LOOKING
  2. 启动zk2(myid=2),zk2投自己一票并发起选举,zk1发现zk2的myid比自己的大,所以把选票投给zk2,此时zk2的选票为2,超过了集群大小的一半,选举结束,zk2为leader,zk1为follower
  3. 启动zk3(myid=3), zk3投自己一票,zk1,zk2由于不是LOOKING状态,不会改变选票,所以zk3为follower


# 通过Java程序进行测试

package com.futao.zookeeper.dynamic;
import lombok.SneakyThrows;
import lombok.extern.slf4j.Slf4j;
import org.apache.zookeeper.*;
import org.apache.zookeeper.data.Stat;
import java.io.IOException;
import java.nio.charset.StandardCharsets;
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.TimeUnit;
/**
 * 客户端监听服务实例的变化
 *
 * @author ft
 * @date 2021/8/3
 */
@Slf4j
public class Client {
    private static ZooKeeper Zk = null;
    /**
     * 集群地址
     */
    private static final String CONNECT_STRING = "localhost:2181,localhost:2182,localhost:2183";
    public static void main(String[] args) throws IOException, InterruptedException {
        Zk = new ZooKeeper(CONNECT_STRING, 2000, new Watcher() {
            @SneakyThrows
            @Override
            public void process(WatchedEvent event) {
                Stat stat = Zk.exists("/server-pig", false);
                if (stat == null) {
                    Zk.create("/server-pig", "".getBytes(StandardCharsets.UTF_8), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
                    log.info("创建/server-pig成功");
                }
                // 可用的实例列表
                List<String> serverList = new ArrayList<>();
                List<String> children = Zk.getChildren("/server-pig", true);
                for (String child : children) {
                    byte[] data = Zk.getData("/server-pig/" + child, false, null);
                    // 拿到的是节点名,而不是data,why?
                    serverList.add(new String(data));
                }
                System.out.println(children);
            }
        });
        // 阻塞主线程
        TimeUnit.HOURS.sleep(1);
    }
}
  • 创建节点之前的集群状态
    image.png

  • 程序创建节点 /server-pig
    image.png

  • 创建/server-pig节点之后,且集群各个节点之间的数据是同步
    image.png

    创建/server-pig节点之后

集群搭建完成


# 集群节点下线


  • 对于zookeeper集群,只要超过半数的节点是活的,集群即可正常对外提供服务。
  • 停止zk2

    image.png
  • 应用仍能正常使用

    image.png


  • 此时集群节点状态:
  • zk1为follower
  • zk3为leader

image.png

image.png


# 其他


  • IDEA ZK插件

    image.png

    image.png
  • IDEA 查看/操作docker镜像
    image.png
  • visualStudioCode docker插件

    image.png
  • docker desktop

    image.png


# TODO

  • 动态增删ZK集群节点
相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
12天前
|
网络安全 Docker 容器
|
12天前
|
安全 Docker 容器
|
15天前
|
网络安全 Docker 容器
|
12天前
|
网络安全 数据安全/隐私保护 Docker
|
22天前
|
运维 监控 数据安全/隐私保护
管理 Docker Swarm 集群注意事项
【10月更文挑战第7天】
33 3
|
22天前
|
负载均衡 监控 安全
如何管理 Docker Swarm 集群和节点
【10月更文挑战第7天】
35 3
|
19天前
|
负载均衡 安全 调度
Docker Swarm集群架构
【10月更文挑战第8天】
42 1
|
22天前
|
算法 调度 Docker
Docker Swarm 集群组成
【10月更文挑战第7天】
25 3
|
23天前
|
调度 Docker 容器
Docker Swarm集群和节点
【10月更文挑战第6天】
28 2
|
27天前
|
分布式计算 Java Hadoop
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
58 1