使用docker-compose搭建zookeeper集群

本文涉及的产品
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 使用docker-compose搭建zookeeper集群

# 技术



# 集群规划


  • 创建包含3个(奇数个)实例的zookeeper集群。
  • 通过docker-compose创建3个docker-zookeeper镜像,映射的宿主机端口分别为: 2081,2182,2183,集群实例myid分别为1,2,3


# 编写docker-compose



image.png


  • 环境变量

    image.png
  • 集群模式下的环境变量

    image.png
  • 编写docker-compose

# docker compose版本
version: "3.1"
services:
  # 节点1
  zk1:
    # 镜像名称
    image: zookeeper
    # 容器名称
    container_name: zk1.docker
    # docker重启后自动重启容器
    restart: always
    # 当前容器主机名
    hostname: zk1.docker
    # 端口 宿主机:容器
    ports:
      - 2181:2181
    # 环境变量
    environment:
      # myid,一个集群内唯一标识一个节点
      ZOO_MY_ID: 1
      # 集群内节点列表
      ZOO_SERVERS:
        - server.1=zk1.docker:2888:3888;2181
        - server.2=zk2.docker:2888:3888;2181
        - server.3=zk3.docker:2888:3888;2181
  # 节点2
  zk2:
    image: zookeeper
    container_name: zk2.docker
    restart: always
    hostname: zk2.docker
    ports:
      - 2182:2181
    environment:
      ZOO_MY_ID: 2
      ZOO_SERVERS:
        - server.1=zk1.docker:2888:3888;2181
        - server.2=zk2.docker:2888:3888;2181
        - server.3=zk3.docker:2888:3888;2181
  # 节点3
  zk3:
    image: zookeeper
    container_name: zk3.docker
    restart: always
    hostname: zk3.docker
    ports:
      - 2183:2181
    environment:
      ZOO_MY_ID: 3
      ZOO_SERVERS:
        - server.1=zk1.docker:2888:3888;2181
        - server.2=zk2.docker:2888:3888;2181
        - server.3=zk3.docker:2888:3888;2181
  • 运行docker-compose脚本
    docker-compose -f zk-replicated.yml up


# 检查集群运行状态


  • 镜像列表
    image.png
    image.png
  • 查看节点的状态(容器启动顺序为zk1, zk2, zk3)
    bin/zkServer.sh status
  • zk1:
  • Mode: follower

    image.png
  • zk2:
  • Mode: leader

    image.png
  • zk3:
  • Mode: follower

    image.png


  • 三个节点都启动成功,且因为启动循序是zk1, zk2, zk3,所以根据zk的选举算法,选举zk2为leader,其他的为follower。
  • 选举过程:
  1. 启动zk1(myid=1),投自己一票,此时因为集群大小为3,不够半数票,无法完成选举,所以状态为LOOKING
  2. 启动zk2(myid=2),zk2投自己一票并发起选举,zk1发现zk2的myid比自己的大,所以把选票投给zk2,此时zk2的选票为2,超过了集群大小的一半,选举结束,zk2为leader,zk1为follower
  3. 启动zk3(myid=3), zk3投自己一票,zk1,zk2由于不是LOOKING状态,不会改变选票,所以zk3为follower


# 通过Java程序进行测试

package com.futao.zookeeper.dynamic;
import lombok.SneakyThrows;
import lombok.extern.slf4j.Slf4j;
import org.apache.zookeeper.*;
import org.apache.zookeeper.data.Stat;
import java.io.IOException;
import java.nio.charset.StandardCharsets;
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.TimeUnit;
/**
 * 客户端监听服务实例的变化
 *
 * @author ft
 * @date 2021/8/3
 */
@Slf4j
public class Client {
    private static ZooKeeper Zk = null;
    /**
     * 集群地址
     */
    private static final String CONNECT_STRING = "localhost:2181,localhost:2182,localhost:2183";
    public static void main(String[] args) throws IOException, InterruptedException {
        Zk = new ZooKeeper(CONNECT_STRING, 2000, new Watcher() {
            @SneakyThrows
            @Override
            public void process(WatchedEvent event) {
                Stat stat = Zk.exists("/server-pig", false);
                if (stat == null) {
                    Zk.create("/server-pig", "".getBytes(StandardCharsets.UTF_8), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
                    log.info("创建/server-pig成功");
                }
                // 可用的实例列表
                List<String> serverList = new ArrayList<>();
                List<String> children = Zk.getChildren("/server-pig", true);
                for (String child : children) {
                    byte[] data = Zk.getData("/server-pig/" + child, false, null);
                    // 拿到的是节点名,而不是data,why?
                    serverList.add(new String(data));
                }
                System.out.println(children);
            }
        });
        // 阻塞主线程
        TimeUnit.HOURS.sleep(1);
    }
}
  • 创建节点之前的集群状态
    image.png

  • 程序创建节点 /server-pig
    image.png

  • 创建/server-pig节点之后,且集群各个节点之间的数据是同步
    image.png

    创建/server-pig节点之后

集群搭建完成


# 集群节点下线


  • 对于zookeeper集群,只要超过半数的节点是活的,集群即可正常对外提供服务。
  • 停止zk2

    image.png
  • 应用仍能正常使用

    image.png


  • 此时集群节点状态:
  • zk1为follower
  • zk3为leader

image.png

image.png


# 其他


  • IDEA ZK插件

    image.png

    image.png
  • IDEA 查看/操作docker镜像
    image.png
  • visualStudioCode docker插件

    image.png
  • docker desktop

    image.png


# TODO

  • 动态增删ZK集群节点
相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
2月前
|
负载均衡 调度 Docker
|
2月前
|
canal Kubernetes Docker
基于Kubernetes v1.25.0和Docker部署高可用集群(03部分)
基于Kubernetes v1.25.0和Docker部署高可用集群(03部分)
|
2月前
|
Kubernetes Ubuntu Linux
基于Kubernetes v1.25.0和Docker部署高可用集群(02部分)
基于Kubernetes v1.25.0和Docker部署高可用集群(02部分)
|
2月前
|
Docker 容器
Docker 安装 Zookeeper
Docker 安装 Zookeeper
95 2
|
2月前
|
存储 Kubernetes Java
基于Kubernetes v1.25.0和Docker部署高可用集群(说明篇)
docker与kubernetes的区别是:docker是管理当前主机上的容器,k8s是管理多台主机、跨平台的分布式管理系统。Kubernetes的设计初衷是支持可插拔架构,从而利于扩展kubernetes的功能
|
3月前
|
关系型数据库 分布式数据库 PolarDB
PolarDB产品使用问题之原PolarDB-X集群无法连接且Docker容器已经被删除,如何恢复数据
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。
|
3月前
|
存储 数据库
zookeeper 集群环境搭建及集群选举及数据同步机制
zookeeper 集群环境搭建及集群选举及数据同步机制
55 2
|
2月前
|
Java Linux Docker
【zookeeper 第二篇章】windows、linux、docker-compose 安装 zookeeper
本文介绍Zookeeper在不同环境下的安装方法。Linux安装需备好JDK,下载并解压Zookeeper后,复制`zoo_sample.cfg`为`zoo.cfg`,最后运行`zkServer.sh start`启动服务。Windows安装类似,通过`zkServer.bat`启动。使用Docker-Compose则需编写配置文件,并通过`docker-compose up -d`后台启动容器。
44 0
|
2月前
|
NoSQL Linux Redis
使用docker-compose搭建redis-cluster集群
使用docker-compose搭建redis-cluster集群
228 0
|
2月前
|
开发工具
部署安装zookeeper集群
部署安装zookeeper集群
下一篇
无影云桌面