Centos7 环境使用 Docker 安装 Zookeeper 集群详解

本文涉及的产品
云原生网关 MSE Higress,422元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: Centos7 环境使用 Docker 安装 Zookeeper 集群详解

在工作中, 如果你的项目依赖于zookeeper服务, 你又不想再开个那么笨重的虚拟机挂载zookeeper, 那么在本机上安装docker是你的不二选择

没有在Mac OS上安装Docker的, 可参考 MAC OSX Docker安装教程2018

此教程同样适用于CentOS, CentOS上安装 Docker 参考 Centos7如何安装Docker

1 镜像下载

# 没有指定TAG既是安装Hub上latest版本
docker pull zookeeper
# 列出docker所有镜像
docker images

出现下列信息既是安装成功

REPOSITORY TAG IMAGE ID CREATED SIZE
zookeeper latest d60e1940f7d8 6 hours ago 211MB

2 启动zk镜像

docker run --name zookeeper -d -p 2181:2181 zookeeper
  • —name :创建一个名称为 zookeeper 的容器
  • -p :将容器的 2181 端口挂载到宿主机的 2181 端口
  • -d : 容器以后台的形式运行
# 查看zookeeper的启动日志
docker logs -f zookeeper
# 查看docker所有运行的容器
docker ps
# 表示zookeeper容器正在运行中
CONTAINER ID   IMAGE      COMMAND    CREATED     STATUS      PORTS     NAMES 
d980b7aa8c47   zookeeper  ...                 ...                 ...                 ...       zookeeper

3 使用zk命令行客户端连接zk

# 进入zookeeper容器
docker exec -it zookeeper /bin/bash

# 进入容器内部bin目录下
cd bin

# 客户端请求连接服务器
./zkCli.sh

# 客户端连接服务器成功标志
Welcome to ZooKeeper!

# h - 客户端命令帮助
[zk: localhost:2181(CONNECTED) 0] h
ZooKeeper -server host:port cmd args
    addauth scheme auth
    close
    config [-c] [-w] [-s]
    connect host:port
    create [-s] [-e] [-c] [-t ttl] path [data] [acl]
    delete [-v version] path
    deleteall path
    delquota [-n|-b] path
    get [-s] [-w] path
    getAcl [-s] path
    history
    listquota path
    ls [-s] [-w] [-R] path
    ls2 path [watch]
    printwatches on|off
    quit
    redo cmdno
    removewatches path [-c|-d|-a] [-l]
    rmr path
    set [-s] [-v version] path data
    setAcl [-s] [-v version] [-R] path acl
    setquota -n|-b val path
    stat [-w] path
    sync path
    
# 展示制定目录下结构
[zk: localhost:2181(CONNECTED) 0] ls /
[zookeeper]
# 创建一个节点并对节点进行赋值
[zk: localhost:2181(CONNECTED) 1] create /test name
Created /test
# 再次查看目录
[zk: localhost:2181(CONNECTED) 2] ls /
[test, zookeeper]
# 获取节点的内容
[zk: localhost:2181(CONNECTED) 3] get /test
name

至此一个单机版的zk节点就完成了,可以通过idea中的zk插件进行连接测试或使用代码api验证

如果只需要一个节点,就不用向下进行了

$\color{red}{为了方便区别名称,将名称为zookeeper的容器删除,为组建集群做准备}$

执行命令删除 docker rm -f zookeeper

4 zk的docker容器集群搭建

下面介绍的方法, 只是搭建集群的一种方式, 如果觉得麻烦可以使用 docker-compose 来搭建

4.1 启动三个zk节点

docker run -d --name zk1 -p 2181:2181 -d zookeeper
docker run -d --name zk2 -p 2182:2181 -d zookeeper
docker run -d --name zk3 -p 2183:2181 -d zookeeper

4.2 获取zk容器的ip地址

通过docker inspect {container_name}命令, 返回的是一个关于docker容器信息的一个json串,根据"IPAddress": "172.17.0.2", 我们可以获取到所有zookeeper单节点的ip地址

  • zk1:172.17.0.2
  • zk2:172.17.0.3
  • zk3:172.17.0.4

4.3 修改配置文件

# 进入容器
docker exec -it zk1 /bin/bash
# 容器中默认是没有vi或vim的
# 安装vim 
apt-get update
apt-get install vim
# 修改zk的配置文件
vim /conf/zoo.cfg
# 修改配置文件之后查看
cat /conf/zoo.cfg

clientPort=2181
dataDir=/data
dataLogDir=/datalog
tickTime=2000
initLimit=5
syncLimit=2
# 2888是zk集群之间通信的端口
# 3888是zk集群之间投票选主的端口
server.1=172.17.0.2:2888:3888
server.2=172.17.0.3:2888:3888
server.3=172.17.0.4:2888:3888
# 将1输出到/data/myid文件中
# 从配置中看出,zk1的服务名为server.1, 这 1 是指定的服务名称  
echo 1 > /data/myid

将zk2、zk3也按照zk1的步骤配置一遍,唯一的不同在于echo输出的是不同zk节点的服务名称

4.4 重启三个zk容器

# 将上面配置修改之后重启zk容器
docker restart zk1
docker restart zk2
docker restart zk3

4.5 验证集群状态

# 进入zk1容器
docker exec -it zk1 /bin/bash
cd bin
# 查看集群状态
./zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: follower

可以看出Mode是 follower, 证明 zk1 是从节点

Follower 角色

参与Leader的选举投票
参与事务请求提议的投票
处理客户端非事务请求,以及转发事务请求给Leader服务器

接下来进入zk2查看节点状态

docker exec -it zk2 /bin/bash
cd bin
./zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: leader

zk2的Model是 leader, 证明是主节点, zk3不用看也就知道是从节点。

Leader 角色

有且仅有一个Leader节点
客户端的写请求一定会发送到leader
客户端的读请求会根据算法发送到不同节点
集群内部的各个服务器(Follower、Observer)的调度者
事务请求的唯一调度者和处理者,保证集群事务处理的顺序性
leader接收所有客户端的写请求,然后转发给所有的follower节点
所有follower节点的数据都只会从leader上去同步,followert节点负责投票

zk还有一种节点角色是观望者

Observer 角色

不影响写性能的情况下去水平扩展zookeeper
直接为客户端服务但并不参与提案的投票,同时与leader进行数据交换(同步)

至此,整个基于docker的zk集群就算是搭建完毕了

大家可以进入zk的客户端使用命令进行创建、删除等操作,不出意外一处修改或者新增,整个集群数据都是保持一致的

虽然在 follower 也可以进行新增、修改数据节点,但是! $\color{red}{真正操作节点数据的只会是leader节点}$

5 致命三连

之前在一家公司面试时,面试官抛出了几个问题
小伙砸,简述下ZK的文件系统和通知机制
小伙砸,ZK的ZAB协议中的崩溃恢复和原子广播了解么?
小伙砸,ZK为什么能够做分布式锁?有什么优缺点?

一脸懵逼、二脸懵逼......呆若木鸡

带着一些疑问和探索的精神可以阅读️下方推荐,都有你想知道的

6 推荐阅读

《从Paxos到ZooKeeper:分布式一致性原理与实践 》
作者:倪超 花名:银时

最近有看到阿里中间件团队推出微服务引擎,公测期间免费 链接地址
相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
2月前
|
网络安全 Docker 容器
|
2月前
|
安全 Docker 容器
|
2月前
|
网络安全 Docker 容器
|
2月前
|
网络安全 数据安全/隐私保护 Docker
|
3天前
|
Unix Linux Docker
CentOS停更沉寂,RHEL巨变限制源代:Docker容器化技术的兴起助力操作系统新格局
操作系统是计算机系统的核心软件,管理和控制硬件与软件资源,为用户和应用程序提供高效、安全的运行环境。Linux作为开源、跨平台的操作系统,具有高度可定制性、稳定性和安全性,广泛应用于服务器、云计算、物联网等领域。其发展得益于庞大的社区支持,多种发行版如Ubuntu、Debian、Fedora等满足不同需求。
16 4
|
25天前
|
Prometheus 监控 Cloud Native
如何使用Prometheus监控Docker Swarm集群的资源使用情况?
还可以根据实际需求进行进一步的配置和优化,如设置告警规则,当资源使用超出阈值时及时发出警报。通过这些步骤,能够有效地使用 Prometheus 对 Docker Swarm 集群的资源进行监控和管理。
43 8
|
25天前
|
Prometheus 监控 Cloud Native
如何监控Docker Swarm集群的性能?
如何监控Docker Swarm集群的性能?
82 8
|
25天前
|
监控 Docker 容器
Docker Swarm集群的扩展与缩容策略,涵盖其意义、方法、步骤及注意事项
本文深入探讨了Docker Swarm集群的扩展与缩容策略,涵盖其意义、方法、步骤及注意事项,旨在帮助用户高效管理集群资源,适应业务变化,确保服务稳定性和资源优化。
47 6
|
25天前
|
负载均衡 网络协议 算法
Docker容器环境中服务发现与负载均衡的技术与方法,涵盖环境变量、DNS、集中式服务发现系统等方式
本文探讨了Docker容器环境中服务发现与负载均衡的技术与方法,涵盖环境变量、DNS、集中式服务发现系统等方式,以及软件负载均衡器、云服务负载均衡、容器编排工具等实现手段,强调两者结合的重要性及面临挑战的应对措施。
58 3
|
1月前
|
存储 Linux Docker
centos系统清理docker日志文件
通过以上方法,可以有效清理和管理CentOS系统中的Docker日志文件,防止日志文件占用过多磁盘空间。选择合适的方法取决于具体的应用场景和需求,可以结合手动清理、logrotate和调整日志驱动等多种方式,确保系统的高效运行。
99 2

热门文章

最新文章