1.0 数据结构
- 抛弃了 JDK 1.7 中原有的 Segment 分段锁,而采用了 CAS + synchronized 来保证并发安全性。
- 将 JDK 1.7 中存放数据的 HashEntry 改为 Node,但作用是相同的。
2.0 put方法
final V putVal(K key, V value, boolean onlyIfAbsent) { if (key == null || value == null) throw new NullPointerException(); // 键或值为空,抛出异常 // 键的hash值经过计算获得hash值,这里的 hash 计算多了一步 & HASH_BITS,HASH_BITS 是 0x7fffffff,该步是为了消除最高位上的负符号 hash的负在ConcurrentHashMap中有特殊意义表示在扩容或者是树结点 int hash = spread(key.hashCode()); int binCount = 0; for (Node[] tab = table;;) { // 无限循环 Node f; int n, i, fh; if (tab == null || (n = tab.length) == 0) // 表为空或者表的长度为0 // 初始化表 tab = initTable(); else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) { // 表不为空并且表的长度大于0,并且该桶不为空 if (casTabAt(tab, i, null, new Node (hash, key, value, null))) // 比较并且交换值,如tab的第i项为空则用新生成的node替换 break; // no lock when adding to empty bin } else if ((fh = f.hash) == MOVED) // 该结点的hash值为MOVED // 进行结点的转移(在扩容的过程中) tab = helpTransfer(tab, f); else { V oldVal = null; synchronized (f) { // 加锁同步 if (tabAt(tab, i) == f) { // 找到table表下标为i的结点 if (fh >= 0) { // 该table表中该结点的hash值大于0 // binCount赋值为1 binCount = 1; for (Node e = f;; ++binCount) { // 无限循环 K ek; if (e.hash == hash && ((ek = e.key) == key || (ek != null && key.equals(ek)))) { // 结点的hash值相等并且key也相等 // 保存该结点的val值 oldVal = e.val; if (!onlyIfAbsent) // 进行判断 // 将指定的value保存至结点,即进行了结点值的更新 e.val = value; break; } // 保存当前结点 Node pred = e; if ((e = e.next) == null) { // 当前结点的下一个结点为空,即为最后一个结点 // 新生一个结点并且赋值给next域 pred.next = new Node (hash, key, value, null); // 退出循环 break; } } } else if (f instanceof TreeBin) { // 结点为红黑树结点类型 Node p; // binCount赋值为2 binCount = 2; if ((p = ((TreeBin )f).putTreeVal(hash, key, value)) != null) { // 将hash、key、value放入红黑树 // 保存结点的val oldVal = p.val; if (!onlyIfAbsent) // 判断 // 赋值结点value值 p.val = value; } } } } if (binCount != 0) { // binCount不为0 if (binCount >= TREEIFY_THRESHOLD) // 如果binCount大于等于转化为红黑树的阈值 // 进行转化 treeifyBin(tab, i); if (oldVal != null) // 旧值不为空 // 返回旧值 return oldVal; break; } } } // 增加binCount的数量 addCount(1L, binCount); return null; }
put方法总结
- 判断存储的 key、value 是否为空,若为空,则抛出异常,否则,进入步骤 2。
- 计算 key 的 hash 值,随后进入自旋,该自旋可以确保成功插入数据,若 table 表为空或者长度为 0,则初始化 table 表,否则,进入步骤 3。
- 根据 key 的 hash 值取出 table 表中的结点元素,若取出的结点为空(该桶为空),则使用 CAS 将 key、value、hash 值生成的结点放入桶中。否则,进入步骤 4。
- 若该结点的的 hash 值为 MOVED(-1),则对该桶中的结点进行转移,否则,进入步骤 5。
- 对桶中的第一个结点(即 table 表中的结点)进行加锁,对该桶进行遍历,桶中的结点的 hash 值与 key 值与给定的 hash 值和 key 值相等,则根据标识选择是否进行更新操作(用给定的 value 值替换该结点的 value 值),若遍历完桶仍没有找到 hash 值与 key 值和指定的 hash 值与 key 值相等的结点,则直接新生一个结点并赋值为之前最后一个结点的下一个结点。进入步骤 6。
- 若 binCount 值达到红黑树转化的阈值,则将桶中的结构转化为红黑树存储,最后,增加 binCount 的值。
- 如果桶中的第一个元素的 hash 值大于 0,说明是链表结构,则对链表插入或者更新。
- 如果桶中的第一个元素是 TreeBin,说明是红黑树结构,则按照红黑树的方式进行插入或者更新。
- 在锁的保护下,插入或者更新完毕后,如果是链表结构,需要判断链表中元素的数量是否超过 8(默认),一旦超过,就需要考虑进行数组扩容,或者是链表转红黑树。
3.0 初始化
private final Node[] initTable() { Node [] tab; int sc; while ((tab = table) == null || tab.length == 0) { // 初始化数组的工作其它线程正在做 if ((sc = sizeCtl) < 0) Thread.yield(); // lost initialization race; just spin // CAS 一下,将 sizeCtl 设置为 -1,代表抢到了锁 else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) { try { if ((tab = table) == null || tab.length == 0) { // DEFAULT_CAPACITY 默认初始容量是 16 int n = (sc > 0) ? sc : DEFAULT_CAPACITY; // 初始化数组,长度为 16 或初始化时提供的长度 Node [] nt = (Node [])new Node,?>[n]; // 将这个数组赋值给 table,table 是 volatile 的 table = tab = nt; // 如果 n 为 16 的话,那么这里 sc = 12 // 其实就是 0.75 * n sc = n - (n >>> 2); } } finally { // 设置 sizeCtl 为 sc sizeCtl = sc; } break; } } return tab; }
4.0 链表转红黑树
private final void treeifyBin(Node[] tab, int index) { Node b; int n, sc; if (tab != null) { // 表不为空 if ((n = tab.length) < MIN_TREEIFY_CAPACITY) // table表的长度小于最小的长度 // 进行扩容,调整某个桶中结点数量过多的问题(由于某个桶中结点数量超出了阈值,则触发treeifyBin) tryPresize(n << 1); else if ((b = tabAt(tab, index)) != null && b.hash >= 0) { // 桶中存在结点并且结点的hash值大于等于0 synchronized (b) { // 对桶中第一个结点进行加锁 if (tabAt(tab, index) == b) { // 第一个结点没有变化 TreeNode hd = null, tl = null; for (Node e = b; e != null; e = e.next) { // 遍历桶中所有结点 // 新生一个TreeNode结点 TreeNode p = new TreeNode (e.hash, e.key, e.val, null, null); if ((p.prev = tl) == null) // 该结点前驱为空 // 设置p为头结点 hd = p; else // 尾结点的next域赋值为p tl.next = p; // 尾结点赋值为p tl = p; } // 设置table表中下标为index的值为hd setTabAt(tab, index, new TreeBin (hd)); } } } } }
数组扩容
// 参数 size 传进来的时候就已经翻倍(例如 16) private final void tryPresize(int size) { // c:size 的 1.5 倍,再加 1,再往上取最近的 2 的 n 次方。 // 16 + 8 + 1 -> 32 -> 2^8 int c = (size >= (MAXIMUM_CAPACITY >>> 1)) ? MAXIMUM_CAPACITY : tableSizeFor(size + (size >>> 1) + 1); int sc; while ((sc = sizeCtl) >= 0) { Node[] tab = table; int n; // 这个 if 分支和之前说的初始化数组的代码基本上是一样的,在这里,我们可以不用管这块代码 if (tab == null || (n = tab.length) == 0) { n = (sc > c) ? sc : c; if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) { try { if (table == tab) { @SuppressWarnings("unchecked") Node [] nt = (Node [])new Node,?>[n]; table = nt; sc = n - (n >>> 2); // 0.75 * n } } finally { sizeCtl = sc; } } } else if (c <= sc || n >= MAXIMUM_CAPACITY) break; else if (tab == table) { int rs = resizeStamp(n); if (sc < 0) { Node [] nt; if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 || sc == rs + MAX_RESIZERS || (nt = nextTable) == null || transferIndex <= 0) break; // 2. 用 CAS 将 sizeCtl 加 1,然后执行 transfer 方法 // 此时 nextTab 不为 null if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) transfer(tab, nt); } // 1. 将 sizeCtl 设置为 (rs << RESIZE_STAMP_SHIFT) + 2) // 调用 transfer 方法,此时 nextTab 参数为 null else if (U.compareAndSwapInt(this, SIZECTL, sc, (rs << RESIZE_STAMP_SHIFT) + 2)) transfer(tab, null); } } }
5.0 get方法
public V get(Object key) { Node[] tab; Node e, p; int n, eh; K ek; int h = spread(key.hashCode()); if ((tab = table) != null && (n = tab.length) > 0 && (e = tabAt(tab, (n - 1) & h)) != null) { // 判断头结点是否就是我们需要的结点 if ((eh = e.hash) == h) { if ((ek = e.key) == key || (ek != null && key.equals(ek))) return e.val; } // 如果头结点的 hash 小于 0,说明 正在扩容,或者该位置是红黑树 else if (eh < 0) // 参考 ForwardingNode.find(int h, Object k) 和 TreeBin.find(int h, Object k) return (p = e.find(h, key)) != null ? p.val : null; // 遍历链表 while ((e = e.next) != null) { if (e.hash == h && ((ek = e.key) == key || (ek != null && key.equals(ek)))) return e.val; } } return null; }
6.0 其他问题
6.2.1 ConcurrentHashmap 不支持 key 或者 value 为 null 的原因
- ConcurrentHashmap 和 Hashtable 都是支持并发的,当通过
get(k)
获取对应的 value 时,如果获取到的是 null 时,无法判断是put(k,v)
的时候 value 为 null,还是这个 key 从来没有做过映射。- HashMap 是非并发的,可以通过 contains(key) 来做这个判断。
- 支持并发的 Map 在调用
m.contains(key)
和m.get(key)
时,m 可能已经发生了更改。
- 因此 ConcurrentHashmap 和 Hashtable 都不支持 key 或者 value 为 null。