引言
我们都知道HashMap
是线程不安全的,所以在一些高并发的应用场景下会使用ConcurrentHashMap
来进行代替。ConcurrentHashMap
是线程安全的,这个大家都知道,但是它线程安全的原理需要进行源码分析才能知晓其中的实际原理。本文将从以下几个方面进行阐述。
ConcurrentHashMap
源码解析ConcurrentHashMap
如何保证线程安全
一、ConcurrentHashMap
源码解析
底层数据结构:数组 + 链表 +红黑树;
线程安全:CAS + synchronized;
ConcurrentHashMap
从JDK1.8开始也有红黑树的实现。以下源码为ConcurrentHashMap
的类结构情况。
public class ConcurrentHashMap<K,V> extends AbstractMap<K,V> implements ConcurrentMap<K,V>, Serializable { ...//实现 }
下图展示了,当链表的个数大于8时,链表将转化为红黑树。
1.put操作
ConcurrentHashMap
中的put操作过程分析如下所示,相关代码说明已在源码中进行了注释:
public V put(K key, V value) { return putVal(key, value, false); } final V putVal(K key, V value, boolean onlyIfAbsent) { //获取hash值 int hash = spread(key.hashCode()); //临时变量,记录链表长度 int binCount = 0; for (Node<K,V>[] tab = table;;) { Node<K,V> f; int n, i, fh; //如果数组为空,则进行数组初始化 if (tab == null || (n = tab.length) == 0) //初始化数组 tab = initTable(); //找到hash值对应的数组下标,获取第一个节点f else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) { // 如果数组该位置为空,用一次 CAS 操作将这个新值放入其中即可,这个 put 操作差不多就结束了, 如果 CAS 失败,那就是有并发操作,进到下一个循环 if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value, null))) break; // no lock when adding to empty bin } //扩容 else if ((fh = f.hash) == MOVED) //数据迁移 tab = helpTransfer(tab, f); else { //f 是该位置的头结点,不为空 V oldVal = null; // 获取数组该位置的头结点的监视器锁 synchronized (f) { if (tabAt(tab, i) == f) { if (fh >= 0) {// 头结点的 hash 值大于 0,说明是链表 //记录链表长度 binCount = 1; //遍历链表 for (Node<K,V> e = f;; ++binCount) { K ek; //如果发现了一样的 key,判断是否要进行值覆盖 if (e.hash == hash && ((ek = e.key) == key || (ek != null && key.equals(ek)))) { oldVal = e.val; if (!onlyIfAbsent) e.val = value; break; } // 在链表的最末端,将这个新值放到链表的最后面 Node<K,V> pred = e; if ((e = e.next) == null) { pred.next = new Node<K,V>(hash, key, value, null); break; } } } else if (f instanceof TreeBin) {//红黑树 Node<K,V> p; binCount = 2; //插入新节点 if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key, value)) != null) { oldVal = p.val; if (!onlyIfAbsent) p.val = value; } } } } //链表操作 if (binCount != 0) { //判断是否要将链表转换为红黑树,阈值为8 if (binCount >= TREEIFY_THRESHOLD) treeifyBin(tab, i); if (oldVal != null) return oldVal; break; } } } addCount(1L, binCount); return null; }
在进行初始化数组过程中,再看下初始化数组中的源码:
private final Node<K,V>[] initTable() { Node<K,V>[] tab; int sc; while ((tab = table) == null || tab.length == 0) { if ((sc = sizeCtl) < 0) Thread.yield(); // lost initialization race; just spin else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) { try { if ((tab = table) == null || tab.length == 0) { // DEFAULT_CAPACITY 默认初始容量是 1 int n = (sc > 0) ? sc : DEFAULT_CAPACITY; @SuppressWarnings("unchecked") // 初始化数组,长度为 16 或初始化时提供的长度 Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n]; //将这个数组赋值给 table,table 是 volatile 的 table = tab = nt; //0.75 * n, sc = n - (n >>> 2); } } finally { sizeCtl = sc; } break; } } return tab; }
以下源码treeifyBin
源码,它不一定将链表转化为红黑树,也可能会将数组进行扩容。
private final void treeifyBin(Node<K,V>[] tab, int index) { Node<K,V> b; int n, sc; if (tab != null) { // MIN_TREEIFY_CAPACITY 为 64,如果数组长度小于 64 的时候,其实也就是 32 或者 16 或者更小的时候,会进行数组扩容 if ((n = tab.length) < MIN_TREEIFY_CAPACITY) tryPresize(n << 1); else if ((b = tabAt(tab, index)) != null && b.hash >= 0) { //加锁 synchronized (b) { if (tabAt(tab, index) == b) { //遍历链表建立红黑树 TreeNode<K,V> hd = null, tl = null; for (Node<K,V> e = b; e != null; e = e.next) { TreeNode<K,V> p = new TreeNode<K,V>(e.hash, e.key, e.val, null, null); if ((p.prev = tl) == null) hd = p; else tl.next = p; tl = p; } // 将红黑树设置到数组相应位置中 setTabAt(tab, index, new TreeBin<K,V>(hd)); } } } } }
继续看一下扩容tryPresize的源码分析,这个方法的核心在于 sizeCtl 值的操作,首先将其设置为一个负数,然后执行 transfer(tab, null),再下一个循环将 sizeCtl 加 1,并执行 transfer(tab, nt),之后可能是继续 sizeCtl 加 1,并执行 transfer(tab, nt)。
//size为翻倍之后的大小 private final void tryPresize(int size) { //c:size 的 1.5 倍,再加 1,再往上取最近的 2 的 n 次方 int c = (size >= (MAXIMUM_CAPACITY >>> 1)) ? MAXIMUM_CAPACITY : tableSizeFor(size + (size >>> 1) + 1); int sc; while ((sc = sizeCtl) >= 0) { Node<K,V>[] tab = table; int n; if (tab == null || (n = tab.length) == 0) { n = (sc > c) ? sc : c; if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) { try { if (table == tab) { @SuppressWarnings("unchecked") Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n]; table = nt; sc = n - (n >>> 2); } } finally { sizeCtl = sc; } } } else if (c <= sc || n >= MAXIMUM_CAPACITY) break; else if (tab == table) { int rs = resizeStamp(n); if (sc < 0) { Node<K,V>[] nt; if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 || sc == rs + MAX_RESIZERS || (nt = nextTable) == null || transferIndex <= 0) break; if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) transfer(tab, nt); } else if (U.compareAndSwapInt(this, SIZECTL, sc, (rs << RESIZE_STAMP_SHIFT) + 2)) transfer(tab, null); } } }
transfer方法就是将原来的数组元素迁移到扩容后的新的数组当中,该方法的内容较多。
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) { int n = tab.length, stride; if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE) stride = MIN_TRANSFER_STRIDE; // subdivide range //如果nextTab为null,则进行初始化 if (nextTab == null) { // initiating try { @SuppressWarnings("unchecked") //容量翻倍 Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1]; nextTab = nt; } catch (Throwable ex) { // try to cope with OOME sizeCtl = Integer.MAX_VALUE; return; } nextTable = nextTab; //控制迁移的位置 transferIndex = n; } int nextn = nextTab.length; //标志位,用于告诉其他线程这个位置的数据已经处理过了 ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab); boolean advance = true; boolean finishing = false; // to ensure sweep before committing nextTab // i 是位置索引,bound 是边界,是从后往前 for (int i = 0, bound = 0;;) { Node<K,V> f; int fh; while (advance) { int nextIndex, nextBound; if (--i >= bound || finishing) advance = false; else if ((nextIndex = transferIndex) <= 0) { i = -1; advance = false; } else if (U.compareAndSwapInt (this, TRANSFERINDEX, nextIndex, nextBound = (nextIndex > stride ? nextIndex - stride : 0))) { bound = nextBound; i = nextIndex - 1; advance = false; } } if (i < 0 || i >= n || i + n >= nextn) { int sc; if (finishing) { nextTable = null; table = nextTab; sizeCtl = (n << 1) - (n >>> 1); return; } if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) { if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT) return; finishing = advance = true; i = n; // recheck before commit } } else if ((f = tabAt(tab, i)) == null) advance = casTabAt(tab, i, null, fwd); else if ((fh = f.hash) == MOVED) advance = true; // already processed else { synchronized (f) { if (tabAt(tab, i) == f) { Node<K,V> ln, hn; if (fh >= 0) { int runBit = fh & n; Node<K,V> lastRun = f; for (Node<K,V> p = f.next; p != null; p = p.next) { int b = p.hash & n; if (b != runBit) { runBit = b; lastRun = p; } } if (runBit == 0) { ln = lastRun; hn = null; } else { hn = lastRun; ln = null; } for (Node<K,V> p = f; p != lastRun; p = p.next) { int ph = p.hash; K pk = p.key; V pv = p.val; if ((ph & n) == 0) ln = new Node<K,V>(ph, pk, pv, ln); else hn = new Node<K,V>(ph, pk, pv, hn); } // 其中的一个链表放在新数组的位置 i setTabAt(nextTab, i, ln); setTabAt(nextTab, i + n, hn); setTabAt(tab, i, fwd); advance = true; } else if (f instanceof TreeBin) { TreeBin<K,V> t = (TreeBin<K,V>)f; TreeNode<K,V> lo = null, loTail = null; TreeNode<K,V> hi = null, hiTail = null; int lc = 0, hc = 0; for (Node<K,V> e = t.first; e != null; e = e.next) { int h = e.hash; TreeNode<K,V> p = new TreeNode<K,V> (h, e.key, e.val, null, null); if ((h & n) == 0) { if ((p.prev = loTail) == null) lo = p; else loTail.next = p; loTail = p; ++lc; } else { if ((p.prev = hiTail) == null) hi = p; else hiTail.next = p; hiTail = p; ++hc; } } //如果分解后,节点数少于 8,就将红黑树转换回链表 ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) : (hc != 0) ? new TreeBin<K,V>(lo) : t; hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) : (lc != 0) ? new TreeBin<K,V>(hi) : t; setTabAt(nextTab, i, ln); setTabAt(nextTab, i + n, hn); setTabAt(tab, i, fwd); //设置advance为true,代表该位置数据迁移完成 advance = true; } } } } } }
再源码中
private transient volatile Node<K,V>[] nextTable;
2.get操作
ConcurrentHashMap
的获取数据的过程简单些,过程如下所示:
public V get(Object key) { Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek; int h = spread(key.hashCode()); if ((tab = table) != null && (n = tab.length) > 0 && (e = tabAt(tab, (n - 1) & h)) != null) { //判断头结点是不是需要找的元素,如果是就直接返回 if ((eh = e.hash) == h) { if ((ek = e.key) == key || (ek != null && key.equals(ek))) return e.val; } // 如果头结点的 hash 小于 0,说明 正在扩容,或者该位置是红黑树 else if (eh < 0) return (p = e.find(h, key)) != null ? p.val : null; //遍历链表 while ((e = e.next) != null) { if (e.hash == h && //获取到key值,则返回对应的value值 ((ek = e.key) == key || (ek != null && key.equals(ek)))) return e.val; } } return null; }
二、ConcurrentHashMap
如何保证线程安全
static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i, Node<K,V> c, Node<K,V> v) { return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v); }
1.所谓CAS操作即为:“Compare And Swap”,按照字面意思理解就是比较与交换,主要思想为CAS(V,E,N),其中V代表将要更新的变量,E代表预期值,N代表新值。CAS算法的思想是不断的拿内存中的数据与自己期望的数据进行比较,如果相同则可以对该变量进行操作。如果不同则说明当前有线程在操作该变量,此时不可以对其进行操作,但是可以重新读取该变量值进行比较。也可以放弃操作。
2.CAS操作其实属于乐观锁,它乐观的认为自己的操作总是可以成功的完成。当多个线程同时操作同一个变量时,只有一个线程可以成功。其他失败的线程并不会被挂起,同时允许线程继续尝试或者放弃。CAS是一种无锁式的保证线程安全的手段。无锁也就不会出现线程死锁的以外情况。
如上述代码所示,U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v)采用了CAS算法实现了无锁化的值操作来保证数据的一致性,可以降低通过加锁保证线程安全所带来的性能消耗。
除了上述代码中采用了CAS操作,ConcurrentHashMap在如下代码中也使用了CAS操作。
static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) { return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE); }
static final <K,V> void setTabAt(Node<K,V>[] tab, int i, Node<K,V> v) { U.putObjectVolatile(tab, ((long)i << ASHIFT) + ABASE, v); }
正是这三种CAS操作保证了它的操作原子性进而使得它具备线程安全的能力。