章节内容
上节我们完成了:
ZooKeeper的Leader选举机制
ZooKeeper的选举过程
ZooKeeper的ZAB协议
背景介绍
这里是三台公网云服务器,每台 2C4G,搭建一个Hadoop的学习环境,供我学习。
之前已经在 VM 虚拟机上搭建过一次,但是没留下笔记,这次趁着前几天薅羊毛的3台机器,赶紧尝试在公网上搭建体验一下。
2C4G 编号 h121
2C4G 编号 h122
2C2G 编号 h123
分布式锁
出现问题1(单机器)
假设 Redis 里面的某个商品库存为1,此时两个用户同时下单,其中一个下单请求执行到第3步,更新数据库的库存为0,但是第4步还没执行。
而另外一个用户下单执行到了第二步,发现库存还是1,就会继续执行第3步。
但是此时库存已经为0了,所以数据库没有限制,此时会出现超卖的问题。
解决方案1
- 用锁把2、3、4步锁住,让他们执行完后,另一个线程才能够继续执行。
- 但是由于业务发展迅速,原来的单机已经不能够满足,此时增加一台机器后,会出现更严重的问题。
出现问题2(多机器)
假设有两个订单同时执行,分别有两个机器执行,那么这两个请求就是可以同时执行了,这样就依然出现了超卖的问题。
解决方案2
我们需要使用分布式锁来解决上面出现的问题。
分布式锁的作用就是在整个系统中提供一个全局的、唯一的锁,在分布式系统中每个系统进行相关的操作时都需要获取到该锁,才能够执行相应的操作。
ZK 分布式锁
实现思路
锁就是ZK指定目录下序号最小的临时节点,多个系统的多个线程都要在此目录下创建临时顺序节点,因为ZK会保证节点的顺序性,所以可以利用节点的顺序性进行锁判断。
每个线程都是先创建临时顺序节点,然后获取当前目录下最小的节点(序号),判断最小节点是不是当前节点,如果是那么获取锁成功,如果不是则获取锁失败。
获取锁失败的线程获取当前节点上一个临时顺序节点,并对此节点进行监听,当该节点删除时,代表释放了锁。
流程图
编写代码
LockTest
package icu.wzk.zk.demo02; public class LockTest { public static void main(String[] args) { for (int i = 0; i < 10; i ++) { // 启动10个 new Thread(new LockRunnable()).start(); } } static class LockRunnable implements Runnable { @Override public void run() { final ClientTest clientTest = new ClientTest(); clientTest.getLock(); try { Thread.sleep(2000); } catch (InterruptedException e) { e.printStackTrace(); } clientTest.deleteLock(); } } }
ClientTest
package icu.wzk.zk.demo02; import org.I0Itec.zkclient.IZkDataListener; import org.I0Itec.zkclient.ZkClient; import java.util.Collections; import java.util.List; import java.util.concurrent.CountDownLatch; public class ClientTest { private ZkClient zkClient = new ZkClient("h121.wzk.icu:2181,h122.wzk.icu:2181,h123.wzk.icu:2181"); String beforeNodePath; String currentNodePath; CountDownLatch countDownLatch = null; public ClientTest() { synchronized (ClientTest.class) { if (!zkClient.exists("/lock")) { zkClient.createPersistent("/lock"); } } } public boolean tryGetLock() { if (null == currentNodePath || currentNodePath.isEmpty()) { currentNodePath = zkClient.createEphemeralSequential("/lock/", "lock"); } final List<String> childs = zkClient.getChildren("/lock"); Collections.sort(childs); final String minNode = childs.get(0); if (currentNodePath.equals("/lock/" + minNode)) { return true; } else { final int i = Collections.binarySearch(childs, currentNodePath.substring("/lock/".length())); String lastNodeChild = childs.get(i - 1); beforeNodePath = "/lock/" + lastNodeChild; } return false; } public void waitForLock() { final IZkDataListener iZkDataListener = new IZkDataListener() { @Override public void handleDataChange(String dataPath, Object data) throws Exception { // } @Override public void handleDataDeleted(String dataPath) throws Exception { countDownLatch.countDown(); } }; zkClient.subscribeDataChanges(beforeNodePath, iZkDataListener); if (zkClient.exists(beforeNodePath)) { countDownLatch = new CountDownLatch(1); try { countDownLatch.await(); } catch (InterruptedException e) { e.printStackTrace(); } } zkClient.unsubscribeDataChanges(beforeNodePath, iZkDataListener); } public void deleteLock() { if (zkClient != null) { zkClient.delete(currentNodePath); zkClient.close(); } } public void getLock() { final String threadName = Thread.currentThread().getName(); if (tryGetLock()) { System.out.println(threadName + ": 获取到了锁!"); } else { System.out.println(threadName + ": 没有获取到锁!"); waitForLock(); // 自己调用自己 getLock(); } } }
运行结果