1、 搭建要求
真实的集群是需要部署在不同的服务器上的,但是在我们测试时同时启动很多个虚拟机内存会吃不消,所以我们通常会搭建 伪集群,也就是把所有的服务都搭建在一台虚拟机上,用 端口进行区分。
我们这里要求搭建一个三个节点的Zookeeper集群(伪集群)。
2、 准备工作
1、首先必须安装好JDK先。
2、ZooKeeper压缩包上传到服务器,压缩包下载地址: Apache ZooKeeper
3、将Zookeeper解压 ,建立/usr/local/zookeeper-cluster目录,将解压后的Zookeeper复制到以下三个目录。
/usr/local/zookeeper-cluster/zookeeper-1 /usr/local/zookeeper-cluster/zookeeper-2 /usr/local/zookeeper-cluster/zookeeper-3
创建目录并将ZooKeeper压缩包解压到此目录
mkdir /usr/local/zookeeper-cluster
解压
tar -zxvf apache-zookeeper-3.7.0-bin.tar.gz -C /usr/local/zookeeper-cluster
将解压后的Zookeeper复制到以下三个目录
cp -r apache-zookeeper-3.7.0-bin /usr/local/zookeeper-cluster/zookeeper-1 cp -r apache-zookeeper-3.7.0-bin /usr/local/zookeeper-cluster/zookeeper-2 cp -r apache-zookeeper-3.7.0-bin /usr/local/zookeeper-cluster/zookeeper-3
4、创建data目录 ,并且将 conf下zoo_sample.cfg 文件改名为 zoo.cfg
mkdir /usr/local/zookeeper-cluster/zookeeper-1/data mkdir /usr/local/zookeeper-cluster/zookeeper-2/data mkdir /usr/local/zookeeper-cluster/zookeeper-3/data mv /usr/local/zookeeper-cluster/zookeeper-1/conf/ zoo_sample.cfg /usr/local/zookeeper-cluster/zookeeper-1/conf/ zoo.cfg mv /usr/local/zookeeper-cluster/zookeeper-2/conf/ zoo_sample.cfg /usr/local/zookeeper-cluster/zookeeper-2/conf/ zoo.cfg mv /usr/local/zookeeper-cluster/zookeeper-3/conf/ zoo_sample.cfg /usr/local/zookeeper-cluster/zookeeper-3/conf/ zoo.cfg
5、 配置每一个Zookeeper 的dataDir 和 clientPort 分别为2182 2183 2184
修改/usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg
vim /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg
内容:
clientPort=2182 dataDir=/usr/local/zookeeper-cluster/zookeeper-1/data
修改/usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg
vim /usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg
内容:
clientPort=2183 dataDir=/usr/local/zookeeper-cluster/zookeeper-2/data
修改/usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg
vim /usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg
内容:
clientPort=2184 dataDir=/usr/local/zookeeper-cluster/zookeeper-3/data
3、 配置集群
3.1、在每个zookeeper的 data 目录下创建一个 myid 文件,内容分别是1、2、3 。这个文件就是记录每个服务器的ID
echo 1 >/usr/local/zookeeper-cluster/zookeeper-1/data/myid echo 2 >/usr/local/zookeeper-cluster/zookeeper-2/data/myid echo 3 >/usr/local/zookeeper-cluster/zookeeper-3/data/myid
3.2、在每一个zookeeper 的 zoo.cfg配置客户端访问端口(clientPort)和集群服务器IP列表。集群服务器IP列表如下。
zookeeper-1 vim /usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg
内容:
server.1=192.168.58.150:2881:3881 server.2=192.168.58.150:2882:3882 server.3=192.168.58.150:2883:3883 zookeeper-2 vim /usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg
内容:
server.1=192.168.58.150:2881:3881 server.2=192.168.58.150:2882:3882 server.3=192.168.58.150:2883:3883 zookeeper-3 vim /usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg
内容:
server.1=192.168.58.150:2881:3881 server.2=192.168.58.150:2882:3882 server.3=192.168.58.150:2883:3883
4 启动集群
启动集群就是分别启动每个实例。
/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start /usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh start /usr/local/zookeeper-cluster/zookeeper-3/bin/zkServer.sh start
启动后我们查询一下每个实例的运行状态
先查询第一个服务
/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start
Mode为follower表示是 跟随者(从)
再查询第二个服务Mod 为leader表示是领导者(主)
/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status
查询第三个为跟随者(从)
/usr/local/zookeeper-cluster/zookeeper-3/bin/ zkServer.shstatus
5 模拟集群异常
1、首先我们先测试如果是从服务器挂掉,会怎么样,把3号服务器停掉。
/usr/local/zookeeper-cluster/zookeeper-3/bin/ zkServer.sh stop
观察1号和2号
/usr/local/zookeeper-cluster/zookeeper-1/bin/ zkServer.sh status /usr/local/zookeeper-cluster/zookeeper-2/bin/ zkServer.sh status
发现状态并没有变化。
由此得出结论,3个节点的集群,有一个从服务器挂掉,集群正常。
2、我们再把1号服务器(从服务器)也停掉。
/usr/local/zookeeper-cluster/zookeeper-1/bin/ zkServer.sh stop
查看2号(主服务器)的状态。
/usr/local/zookeeper-cluster/zookeeper-2/bin/ zkServer.sh status
发现已经停止运行了。
由此得出结论,3个节点的集群,2个从服务器都挂掉,主服务器也无法运行。因为可运行的机器没有超过集群总数量的半数。
3、我们再次把1号服务器启动起来。
/usr/local/zookeeper-cluster/zookeeper-1/bin/zkServer.sh start
发现2号服务器又开始正常工作了。而且依然是领导者。
/usr/local/zookeeper-cluster/zookeeper-2/bin/zkServer.sh status
4、我们把3号服务器也启动起来。
/usr/local/zookeeper-cluster/zookeeper-3/bin/ zkServer.sh start
把2号服务器停掉
/usr/local/zookeeper-cluster/zookeeper-2/bin/ zkServer.sh stop
停掉后观察1号和3号的状态。
/usr/local/zookeeper-cluster/zookeeper-1/bin/ zkServer.sh status /usr/local/zookeeper-cluster/zookeeper-3/bin/ zkServer.sh status
发现新的leader产生了~
由此我们得出结论,当集群中的主服务器挂了,集群中的其他服务器会自动进行选举状态,然后产生新得leader 。
5、我们再次测试,当我们把2号服务器重新启动起来启动后,会发生什么?
/usr/local/zookeeper-cluster/zookeeper-2/bin/ zkServer.sh start
2号服务器会再次成为新的领导吗?
/usr/local/zookeeper-cluster/zookeeper-2/bin/ zkServer.sh status /usr/local/zookeeper-cluster/zookeeper-3/bin/ zkServer.sh status
我们会发现,2号服务器启动后依然是跟随者(从服务器),3号服务器依然是领导者(主服务器),没有撼动3号服务器的领导地位。
由此我们得出结论,当领导者产生后,再次有新服务器加入集群,不会影响到现任领导者。