前言
最近在做一个系统功能时,发现有个方法是需要做同步的,but,生产环境中项目的部署是多个tomcat做集群的,而简单的使用synchronized加锁只是针对同一个JVM进程中的多线程实现同步,对于跨进程的同步无法达到统一加锁的目的。于是,小白便想到了分布式锁。前段时间刚好看到一幅有意思的漫画,其中就提到Zookeeper被设计的初衷,就是利用临时顺序节点,可以轻松实现分布式锁,便研究了下利用zk实现分布式锁。本文只研究了zk的基本特性以及使用java实现一个简单的分布式锁,如有错误,欢迎拍砖,另外稍微白话,不喜勿喷。
假设背景
假设小白的系统生产环境上部署了2台tomcat(t1 和 t2),而同一时间用户A、B的请求刚好分别由t1和t2进行响应处理,用户A、B的请求都需要调用方法m作相关处理(对共享数据的处理),为了保证数据的准确性,小白希望一个时间点只有一个线程可以执行方法m,也就是说t1中有线程执行m时,t1、t2的其他线程都不能执行m,直至那个线程对m调用结束。
思考方案
单机环境下如何实现同步的?可以使用synchronized或是ReentrantLock实现,究其原理也是存在一个锁标志变量,线程每次要执行同步代码时先去查看该标志是否已经被其他线程占有,若是则阻塞等待其他线程释放锁,若不是则设置标志后执行(此处只是简单描述,具体原理博大精深)。
为何跨进程就不行了呢?因为同一个进程内,锁是所有这个进程内所有线程都可以访问的,但是其他进程中的线程时访问不了的。OK,那只要提供一个所有进程内线程都可见的锁标志,问题就解决咯。so,zookeeper就可以充当第三方进程,对需要管理的进程开放访问权限,所有需要跨进程同步的代码在被执行前,都需要先来我大zk这里查看是否可以执行。
为什么zookeeper可以实现分布式锁?
多个进程内同一时间都有线程在执行方法m,锁就一把,你获得了锁得以执行,我就得被阻塞,那你执行完了谁来唤醒我呢?你并不知道我被阻塞了,你也就不能通知我“嗨,小白,我用完了,你用吧”。你能做的只有用的时候设置锁标志,用完了再取消你设置的标志。我就必须在阻塞的时候隔一段时间主动去看看,但这样总归是有点麻烦的,最好有人来通知我可以执行了。zookeeper对于自身节点的监听者提供事件通知功能,是不是有点雪中送炭的感觉呢。
节点是什么?
节点是zookeeper中数据存储的基础结构,zk中万物皆节点,就好比java中万物皆对象是一样的。zk的数据模型就是基于好多个节点的树结构,但zk规定每个节点的引用规则是路径引用。每个节点中包含子节点引用、存储数据、访问权限以及节点元数据等四部分。
zk中节点有类型区分吗?
有。zk中提供了四种类型的节点,各种类型节点及其区别如下:
- 持久节点(PERSISTENT):节点创建后,就一直存在,直到有删除操作来主动清除这个节点
- 持久顺序节点(PERSISTENT_SEQUENTIAL):保留持久节点的特性,额外的特性是,每个节点会为其第一层子节点维护一个顺序,记录每个子节点创建的先后顺序,ZK会自动为给定节点名加上一个数字后缀(自增的),作为新的节点名。
- 临时节点(EPHEMERAL):和持久节点不同的是,临时节点的生命周期和客户端会话绑定,当然也可以主动删除。
- 临时顺序节点(EPHEMERAL_SEQUENTIAL):保留临时节点的特性,额外的特性如持久顺序节点的额外特性。
如何操作节点?
节点的增删改查分别是creat\delete\setData\getData
,
exists
判断节点是否存在,getChildren
获取所有子节点的引用。
上面提到了节点的监听者,我们可以在对zk的节点进行查询操作时,设置当前线程是否监听所查询的节点。getData
、getChildren
、exists
都属于对节点的查询操作,这些方法都有一个boolean类型的watch参数,用来设置是否监听该节点。一旦某个线程监听了某个节点,那么这个节点发生的creat(在该节点下新建子节点)、setData、delete(删除节点本身或是删除其某个子节点)都会触发zk去通知监听该节点的线程。但需要注意的是,线程对节点设置的监听是一次性的,也就是说zk通知监听线程后需要该线程再次设置监听节点,否则该节点再次的修改zk不会再次通知。
zookeeper具备了实现分布式锁的基础条件:
==多进程共享、可以存储锁信息、有主动通知的机制==。
怎么使用zookeeper实现分布式锁呢?
分布式锁也是锁,没什么牛的,它也需要一个名字来告诉别人自己管理的是哪块同步资源,也同样需要一个标识告诉别人自己现在是空闲还是被使用。zk中,需要创建一个专门的放锁的节点,然后各种锁节点都作为该节点的子节点方便管理,节点名称用来表明自己管理的同步资源。那么锁标识呢?
方案一:使用节点中的存储数据区域,zk中节点存储数据的大小不能超过1M,但是只是存放一个标识是足够的。线程获得锁时,先检查该标识是否是无锁标识,若是可修改为占用标识,使用完再恢复为无锁标识。
方案二:使用子节点,每当有线程来请求锁的时候,便在锁的节点下创建一个子节点,子节点类型必须维护一个顺序,对子节点的自增序号进行排序,默认总是最小的子节点对应的线程获得锁,释放锁时删除对应子节点便可。
死锁风险
两种方案其实都是可行的,但是使用锁的时候一定要去规避死锁。
方案一看上去是没问题的,用的时候设置标识,用完清除标识,但是要是持有锁的线程发生了意外,释放锁的代码无法执行,锁就无法释放,其他线程就会一直等待锁,相关同步代码便无法执行。
方案二也存在这个问题,但方案二可以利用zk的临时顺序节点来解决这个问题,只要线程发生了异常导致程序中断,就会丢失与zk的连接,zk检测到该链接断开,就会自动删除该链接创建的临时节点,这样就可以达到即使占用锁的线程程序发生意外,也能保证锁正常释放的目的。
那要是zk挂了怎么办?sad,zk要是挂了就没辙了,因为线程都无法链接到zk,更何谈获取锁执行同步代码呢。不过,一般部署的时候,为了保证zk的高可用,都会使用多个zk部署为集群,集群内部一主多从,主zk一旦挂掉,会立刻通过选举机制有新的主zk补上。zk集群挂了怎么办?不好意思,除非所有zk同时挂掉,zk集群才会挂,概率超级小。
开始动手搞一搞
要什么东西
需要一个锁对象,每次创建这个锁对象的时候需要连接zk(也可将连接操作放在加锁的时候);
锁对象需要提供一个加锁的方法;
锁对象需要提供一个释放锁的方法;
锁对象需要监听zk节点,提供接收zk通知的回调方法。
实现分析
1 构造器中,创建zk连接,创建锁的根节点,相关API如下:
1 2 3 4
| public ZooKeeper(String connectString, int sessionTimeout, Watcher watcher)
public String create(String path, byte[] data, List<ACL> acl, CreateMode createMode)
|
2 加锁时,首先需要在锁的根节点下创建一个临时顺序节点(该节点名称规则统一,由zk拼接自增序号),然后获取根节点下所有子节点,将节点根据自增序号进行排序,判断最小的节点是否为本次加锁创建的节点,若是,加锁成功,若否,阻塞当前线程,等待锁释放(阻塞线程可以使用)。相关API如下:
1 2
| public List<String> getChildren(String path, boolean watch) 获取某节点的所有子节点。参数:节点路径、是否监控该节点
|
3 释放锁时,删除线程创建的子节点,同时关闭zk连接。相关API如下:
1 2 3 4
| public void delete(String path, int version) 删除指定节点。参数:节点路径、数据版本号 public synchronized void close() 断开zk链接
|
4 监听节点。首先需要明确监听哪个节点,我们可以监听锁的根节点,这样每当有线程释放锁删除对应子节点时,zk就会通知监听线程,有锁被释放了,这个时候只需要获取根节点的所有子节点,根据自增序号判断自己对应的节点是否为最小,便可知道自己能否获取锁。但是上述做法很明显有一点不太好,只要有子s节点被移除,zk就会重新通知所有等待锁的线程。获得不到锁的线程接收到通知后发现自己还需等待,又得重新设置监听再次等待。由于我们要采用临时有序节点,该类型节点的特性就是有序,那么就可以只监听上一个节点,也就是等待被移除的节点,这样可以保证接到通知时,就是对应子节点时最小,可以获得锁的时候。在实现分布式锁的时候,线程加锁时如果不能立马获得锁,便会被通过特定方式阻塞,那么既然接到通知时便是可以获得锁的时候,那么对应的操作就应该是恢复线程的执行,取消阻塞。
zk提供了Watcher接口,锁对象需要监听zk中上一个节点,便需要实现该接口。Watcher接口内部包含封装了事件类型和连接类型的Event接口,还提供了唯一一个需要实现的方法。
void process(WatchedEvent var1)
该方法便是用来接收zk通知的回调方法。参数为监听节点发生的事件。当监听器监听的节点发生变化时,zk会通知监听者,同时该方法被执行,参数便是zk通知的信息。
开写代码
虽然是一个简单的分布式锁的实现,代码也有点略长。建议跟小白一样从零开始了解分布式锁实现的朋友,先从上面的大步骤分析简单思考下每个方法内部的具体实现再看代码,印象更为深刻,理解也更容易。如有不同思路,欢迎留言讨论。代码中判断加锁的方法中,使用分隔符字符串是为了区分各个资源的锁。项目中有临界资源A和B,那么管理A的锁释放与否,跟线程要持有管理B的锁是没有关系的。当然,也可以每一类锁单独建立独立的根节点。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136
| public class ZooKeeperLock implements Watcher {
private ZooKeeper zk = null; private String rootLockNode; private String lockName; private String currentLock; private String waitLock; private CountDownLatch countDownLatch; private int sessionTimeout = 30000; public ZooKeeperLock(String zkAddress, String rootLockNode, String lockName) { this.rootLockNode = rootLockNode; this.lockName = lockName; try { zk = new ZooKeeper(zkAddress,this.sessionTimeout,this); Stat stat = zk.exists(rootLockNode,false); if (null == stat) { zk.create(rootLockNode, new byte[0], ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT); } } catch (IOException e) { e.printStackTrace(); } catch (InterruptedException e) { e.printStackTrace(); } catch (KeeperException e) { e.printStackTrace(); } } public boolean lock() { if (this.tryLock()) { System.out.println("线程【" + Thread.currentThread().getName() + "】加锁(" + this.currentLock + ")成功!"); return true; } else { return waitOtherLock(this.waitLock, this.sessionTimeout); } } public boolean tryLock() { String split = "_lock_"; if (this.lockName.contains("_lock_")) { throw new RuntimeException("lockName can't contains '_lock_' "); } try { this.currentLock = zk.create(this.rootLockNode + "/" + this.lockName + split, new byte[0], ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL_SEQUENTIAL); System.out.println("线程【" + Thread.currentThread().getName() + "】创建锁节点(" + this.currentLock + ")成功,开始竞争..."); List<String> nodes = zk.getChildren(this.rootLockNode, false); List<String> lockNodes = new ArrayList<String>(); for (String nodeName : nodes) { if (nodeName.split(split)[0].equals(this.lockName)) { lockNodes.add(nodeName); } } Collections.sort(lockNodes); String currentLockPath = this.rootLockNode + "/" + lockNodes.get(0); if (this.currentLock.equals(currentLockPath)) { return true; } String currentLockNode = this.currentLock.substring(this.currentLock.lastIndexOf("/") + 1); int preNodeIndex = Collections.binarySearch(lockNodes, currentLockNode) - 1; this.waitLock = lockNodes.get(preNodeIndex); } catch (KeeperException e) { e.printStackTrace(); } catch (InterruptedException e) { e.printStackTrace(); } return false; }
private boolean waitOtherLock(String waitLock, int sessionTimeout) { boolean islock = false; try { String waitLockNode = this.rootLockNode + "/" + waitLock; Stat stat = zk.exists(waitLockNode,true); if (null != stat) { System.out.println("线程【" + Thread.currentThread().getName() + "】锁(" + this.currentLock + ")加锁失败,等待锁(" + waitLockNode + ")释放..."); this.countDownLatch = new CountDownLatch(1); islock = this.countDownLatch.await(sessionTimeout,TimeUnit.MILLISECONDS); this.countDownLatch = null; if (islock) { System.out.println("线程【" + Thread.currentThread().getName() + "】锁(" + this.currentLock + ")加锁成功,锁(" + waitLockNode + ")已经释放"); } else { System.out.println("线程【" + Thread.currentThread().getName() + "】锁(" + this.currentLock + ")加锁失败..."); } } } catch (KeeperException e) { e.printStackTrace(); } catch (InterruptedException e) { e.printStackTrace(); } return islock; } public void unlock() throws InterruptedException { try { Stat stat = zk.exists(this.currentLock,false); if (null != stat) { System.out.println("线程【" + Thread.currentThread().getName() + "】释放锁 " + this.currentLock); zk.delete(this.currentLock, -1); this.currentLock = null; } } catch (InterruptedException e) { e.printStackTrace(); } catch (KeeperException e) { e.printStackTrace(); } finally { zk.close(); } } @Override public void process(WatchedEvent watchedEvent) { if (null != this.countDownLatch && watchedEvent.getType() == Event.EventType.NodeDeleted) { this.countDownLatch.countDown(); } } }
|
测试类:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
| public class Test { public static void doSomething() { System.out.println("线程【" + Thread.currentThread().getName() + "】正在运行..."); }
public static void main(String[] args) { Runnable runnable = new Runnable() { public void run() { ZooKeeperLock lock = null; lock = new ZooKeeperLock("10.150.27.51:2181","/locks", "test1"); if (lock.lock()) { doSomething(); try { Thread.sleep(1000); lock.unlock(); } catch (InterruptedException e) { e.printStackTrace(); } } } };
for (int i = 0; i < 5; i++) { Thread t = new Thread(runnable); t.start(); } } }
|
这里启动了5个线程来进行验证,输出结果如下。需要注意的是,子节点的创建顺序一定是从小到大的,但是下面输出结果中显示创建顺序的随机是由于创建节点和输出语句不是原子操作导致的。重点是锁的获取和释放,从输出结果中可以看出,每个线程只有在上一个节点被删除后才能执行。ok,一个基于zk的简单的分布式锁就实现了。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
| 线程【Thread-3】创建锁节点(/locks/test1_lock_0000000238)成功,开始竞争... 线程【Thread-2】创建锁节点(/locks/test1_lock_0000000237)成功,开始竞争... 线程【Thread-1】创建锁节点(/locks/test1_lock_0000000236)成功,开始竞争... 线程【Thread-0】创建锁节点(/locks/test1_lock_0000000240)成功,开始竞争... 线程【Thread-4】创建锁节点(/locks/test1_lock_0000000239)成功,开始竞争... 线程【Thread-1】加锁(/locks/test1_lock_0000000236)成功! 线程【Thread-1】正在运行... 线程【Thread-3】锁(/locks/test1_lock_0000000238)加锁失败,等待锁(/locks/test1_lock_0000000237)释放... 线程【Thread-2】锁(/locks/test1_lock_0000000237)加锁失败,等待锁(/locks/test1_lock_0000000236)释放... 线程【Thread-0】锁(/locks/test1_lock_0000000240)加锁失败,等待锁(/locks/test1_lock_0000000239)释放... 线程【Thread-4】锁(/locks/test1_lock_0000000239)加锁失败,等待锁(/locks/test1_lock_0000000238)释放... 线程【Thread-1】释放锁 /locks/test1_lock_0000000236 线程【Thread-2】锁(/locks/test1_lock_0000000237)加锁成功,锁(/locks/test1_lock_0000000236)已经释放 线程【Thread-2】正在运行... 线程【Thread-2】释放锁 /locks/test1_lock_0000000237 线程【Thread-3】锁(/locks/test1_lock_0000000238)加锁成功,锁(/locks/test1_lock_0000000237)已经释放 线程【Thread-3】正在运行... 线程【Thread-3】释放锁 /locks/test1_lock_0000000238 线程【Thread-4】锁(/locks/test1_lock_0000000239)加锁成功,锁(/locks/test1_lock_0000000238)已经释放 线程【Thread-4】正在运行... 线程【Thread-4】释放锁 /locks/test1_lock_0000000239 线程【Thread-0】锁(/locks/test1_lock_0000000240)加锁成功,锁(/locks/test1_lock_0000000239)已经释放 线程【Thread-0】正在运行... 线程【Thread-0】释放锁 /locks/test1_lock_0000000240
|
别人造好的轮子
话说zookeeper红火了这么久,就没有几个牛逼的人物去开源一些好用的工具,还需要自己这么费劲去写分布式锁的实现?是的,有的,上面小白也只是为了加深自己对zk实现分布式锁的理解去尝试做一个简单实现。有个叫Jordan Zimmerman的牛人提供了Curator来更好地操作zookeeper。
curator的分布式锁
curator提供了四种分布式锁,分别是:

- InterProcessMutex:分布式可重入排它锁
- InterProcessSemaphoreMutex:分布式排它锁
- InterProcessReadWriteLock:分布式读写锁
- InterProcessMultiLock:将多个锁作为单个实体管理的容器
pom依赖:
1 2 3 4 5 6 7 8 9 10
| <dependency> <groupId>org.apache.curator</groupId> <artifactId>curator-framework</artifactId> <version>4.0.0</version> </dependency> <dependency> <groupId>org.apache.curator</groupId> <artifactId>curator-recipes</artifactId> <version>4.0.0</version> </dependency>
|
这里使用InterProcessMutex,即分布式可重入排他锁,用法如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
| RetryPolicy retryPolicy = new ExponentialBackoffRetry(1000,3); CuratorFramework client = CuratorFrameworkFactory.newClient("10.150.27.51:2181",retryPolicy);
client.start();
InterProcessMutex mutex = new InterProcessMutex(client,"/locks"); try { if (mutex.acquire(3,TimeUnit.SECONDS)) { mutex.release(); } } catch (Exception e) { e.printStackTrace(); } finally { client.close(); }
|
InterProcessMutex源码解读
InterProcessMutex
改造器较多,这里就不展示改造器源码了,建议感兴趣的朋友自己看看。InterProcessMutex
内部有个ConcurrentMap
类型的threadData属性,
该属性会以线程对象为键,线程对应的LcokData
对象为值,记录每个锁的相关信息。在new一个InterProcessMutex
实例时,其构造器主要是为threadData进行Map初始化,校验锁的根节点的合法性并使用basePath属性记录,此外还会实例化一个LockInternals
对象由属性internals引用,LockInternals
是InterProcessMutex
加锁的核心。
加锁
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
| public void acquire() throws Exception { if (!this.internalLock(-1L, (TimeUnit)null)) { throw new IOException("Lost connection while trying to acquire lock: " + this.basePath); } } public boolean acquire(long time, TimeUnit unit) throws Exception { return this.internalLock(time, unit); } private boolean internalLock(long time, TimeUnit unit) throws Exception { Thread currentThread = Thread.currentThread(); InterProcessMutex.LockData lockData = (InterProcessMutex.LockData)this.threadData.get(currentThread); if (lockData != null) { lockData.lockCount.incrementAndGet(); return true; } else { String lockPath = this.internals.attemptLock(time, unit, this.getLockNodeBytes()); if (lockPath != null) { InterProcessMutex.LockData newLockData = new InterProcessMutex.LockData(currentThread, lockPath); this.threadData.put(currentThread, newLockData); return true; } else { return false; } } }
|
加锁提供了两个接口,分别为不设置超时和设置超时。不设置超时的话,线程等待锁时会一直阻塞,直到获取到锁。不管哪个加锁接口,都调用了internalLock()方法。这个方法里的代码体现了锁的可重入性。InterProcessMutex会直接从threadData中根据当前线程获取其LockData,若LockData不为空,则意味着当前线程拥有此,在锁的次数上加一就直接返回true。若为空,则通过internals属性的attemptLock()方法去竞争锁,该方法返回一个锁对应节点的路径。若该路径不为空,代表当前线程获得到了锁,然后为当前线程创建对应的LcokData并记录进threadData中。
竞争锁
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29
| String attemptLock(long time, TimeUnit unit, byte[] lockNodeBytes) throws Exception { long startMillis = System.currentTimeMillis(); Long millisToWait = unit != null ? unit.toMillis(time) : null; byte[] localLockNodeBytes = this.revocable.get() != null ? new byte[0] : lockNodeBytes; int retryCount = 0; String ourPath = null; boolean hasTheLock = false; boolean isDone = false;
while(!isDone) { isDone = true; try { ourPath = this.driver.createsTheLock(this.client, this.path, localLockNodeBytes); hasTheLock = this.internalLockLoop(startMillis, millisToWait, ourPath); } catch (NoNodeException var14) { if (!this.client.getZookeeperClient().getRetryPolicy().allowRetry(retryCount++, System.currentTimeMillis() - startMillis, RetryLoop.getDefaultRetrySleeper())) { throw var14; }
isDone = false; } }
return hasTheLock ? ourPath : null; }
|
一看这个方法,一大堆的变量定义,全部先忽略掉。最终的返回值由hasTheLock决定,为true时返回ourPath。ourPath初始化为null,后经this.driver.createsTheLock(this.client, this.path, localLockNodeBytes)赋值,这个方法点击去可看到默认的锁驱动类的创建锁节点方法,可知这里只是创建了锁节点。再看hasTheLock,为internalLockLoop()方法的返回值,只有该方法返回true时,attemptLock()才会返回锁节点路径,才会加锁成功。那OK,锁的竞争实现是由internalLockLoop进行。上面循环中的异常捕捉中是根据客户端的重试策略进行重试。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58
| private boolean internalLockLoop(long startMillis, Long millisToWait, String ourPath) throws Exception { boolean haveTheLock = false; boolean doDelete = false;
try { if (this.revocable.get() != null) { ((BackgroundPathable)this.client.getData().usingWatcher(this.revocableWatcher)).forPath(ourPath); } while(this.client.getState() == CuratorFrameworkState.STARTED && !haveTheLock) { List<String> children = this.getSortedChildren(); String sequenceNodeName = ourPath.substring(this.basePath.length() + 1); PredicateResults predicateResults = this.driver.getsTheLock(this.client, children, sequenceNodeName, this.maxLeases); if (predicateResults.getsTheLock()) { haveTheLock = true; } else { String previousSequencePath = this.basePath + "/" + predicateResults.getPathToWatch(); synchronized(this) { try { ((BackgroundPathable)this.client.getData().usingWatcher(this.watcher)).forPath(previousSequencePath); if (millisToWait == null) { this.wait(); } else { millisToWait = millisToWait - (System.currentTimeMillis() - startMillis); startMillis = System.currentTimeMillis(); if (millisToWait > 0L) { this.wait(millisToWait); } else { doDelete = true; break; } } } catch (NoNodeException var19) { ; } } } } } catch (Exception var21) { ThreadUtils.checkInterrupted(var21); doDelete = true; throw var21; } finally { if (doDelete) { this.deleteOurPath(ourPath); } } return haveTheLock; }
|
好吧,又是一大堆代码。还是先挑着看,返回值是haveTheLock,布尔型,看名字就知道这个变量代表竞争锁的成功与否。该变量的赋值发生在循环内,ok,看循环。先是获取所有子节点以及当前节点名称,再由驱动类进行锁竞争,竞争结果封装在PredicateResults类中,该类中包含一个布尔型的结果标识getsTheLock和一个监听节点路径pathToWatch。最后根据所竞争结果决定是否阻塞线程等待监听锁节点的释放。需要注意的是,这里阻塞使用的是对象的wait()机制,同时根据是否设置超时时间,是否已经超时决定线程阻塞时间或是删除超时节点。but,锁竞争的具体实现还是不在这里,这里只是有详细的锁等待实现。Curator默认的锁驱动类是StandardLockInternalsDriver。
1 2 3 4 5 6 7 8 9
| public PredicateResults getsTheLock(CuratorFramework client, List<String> children, String sequenceNodeName, int maxLeases) throws Exception { int ourIndex = children.indexOf(sequenceNodeName); validateOurIndex(sequenceNodeName, ourIndex); boolean getsTheLock = ourIndex < maxLeases; String pathToWatch = getsTheLock ? null : (String)children.get(ourIndex - maxLeases); return new PredicateResults(pathToWatch, getsTheLock); }
|
首先获取所有子节点中当前节点所在的位置索引,然后校验该索引,内部实现为判断是否小于0,成立则抛出一个NoNodeException。那肯定不是0啦。最终能否获得锁取决于该位置索引是否为0,也就是当前节点是否最小(maxLeases在InterProcessMutex构造器中初始化LockInternals设定的是1)。
总结
本文基于ZK实现分布式锁的思路、实现以及Curator的分布式可重入排他锁的原理剖析,算是小白研究ZK实现分布式锁的所有收获了。个人觉的关键点还是在于以下几点:
利用临时节点避免客户端程序异常导致的死锁;
利用有序节点设定锁的获取规则;
利用进程内的线程同步机制实现跨进程的分布式锁等待。
嗯,应该就这些了,要是小白有哪里遗漏的,后续再补。
本文作者:Y_小白
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。