Java源码HashMap、ConcurrentHashMap:JDK1.8HashMap静态常量以及设置的目的,初始容量、最大容量、扩容缩容树化条件

HashMap核心源码

作为工作中最重要、最常用的容器之一,当然还是要自己动手写一篇 HashMap 的源码解析来加深对其的印象咯,而且它的设计与实现 也有很多值得学习的地方。

以下包含HashMap核心静态常量说明以及变量的注释说明。

源码赏析

JDK1.8 的 HashMap 底层使用的是 动态数组,数组中元素存放的是 链表或红黑树。核心源码如下。

public class HashMap<K, V> extends AbstractMap<K, V> implements Map<K, V>, Cloneable, Serializable {

    /**
     初始化容量,默认初始化容量为16
     关于这个变量,注释说“MUST be a power of two”,即必须是2的幂次方。为什么一定要是2的幂次方呢?
     HashMap底层数据结构是数组+链表(或数组+红黑树),当添加元素时,索引定位使用的是i =(n - 1) & hash ,当初始化大小
     n是2的幂次方时,它就等价于 n % hash 。定位下标一般用取余法,而按位与(&)运算的效率要比取余(%)运算的效率高,所以
     默认初始化大必须为2的幂次方,就是为了使用更高效的与运算。
     默认初始化大小为什么是16而不是8或者32?如果太小,扩容比较频繁;如果太大,又占用内存空间。这算是jdk为我们做的初始权衡吧。
     */
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

    /**
     最大容量,我们知道int是占4个字节,一个字节是8位,所以说是32位整型,那按理说可以左移31位,即2的31次幂。在这里为什么
     不是2的31次方呢?实际上,二进制数的最左边那一位是符号位,用来表示正负的。
     我们知道int是占4个字节,一个字节是8位,所以说是32位整型,那按理说可以左移31位,即2的31次幂。在这里为什么不是2的31
     次方呢?实际上,二进制数的最左边那一位是符号位,用来表示正负的。
     */
    static final int MAXIMUM_CAPACITY = 1 << 30;

    /**
     扩容因子,使用的容量达到 当前容量的 75% 就扩容
     通常来说,加载因子的默认值0.75在时间性能和空间消耗之间达到了平衡。较高的值虽然降低了空间消耗,但是却增加了查找时间
     (反映在HashMap大多数的操作上,包括get和put)。当设置初始容量的时候,应该考虑将要放入map中的元素数量和加载因子,
     以减少rehash的次数。如果初始的容量比预计的entry数量除以加载因子的商还要大,那么永远不需要rehash操作。
     */
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    /**
     链表转红黑树的阈值,链表长度达到此值,会进化成红黑树
     当添加元素的时候,如果桶中链表元素超过8,会自动转为红黑树。那么阈值为什么是8呢?来看HashMap源码中的这段注释:
     The first values are:
     0:    0.60653066
     1:    0.30326533
     2:    0.07581633
     3:    0.01263606
     4:    0.00157952
     5:    0.00015795
     6:    0.00001316
     7:    0.00000094
     8:    0.00000006
     more: less than 1 in ten million
     理想状态中,在随机哈希码情况下,对于默认0.75的加载因子,桶中节点的分布频率服从参数约为0.5的泊松分布,即使粒度调整
     会产生较大方差。从数据中可以看到链表中元素个数为8时的概率非常非常小了,所以链表转换红黑树的阈值选择了8。
     */
    static final int TREEIFY_THRESHOLD = 8;
    /**
     HashMap中一个树的链表还原阈值是6
     链表树化阀值是8,那么树还原为链表为什么是6而不是7呢?这是为了防止链表和树之间频繁的转换。如果是7的话,假设一个
     HashMap不停的插入、删除元素,链表个数一直在8左右徘徊,就会频繁树转链表、链表转树,效率非常低下。
     */
    static final int UNTREEIFY_THRESHOLD = 6;

    /**
     HashMap的最小树化容量是64
     为什么是64呢?这是因为容量低于64时,哈希碰撞的机率比较大,而这个时候出现长链表的可能性会稍微大一些,这种原因下产生的
     长链表,我们应该优先选择扩容而避免不必要的树化。
     */
    static final int MIN_TREEIFY_CAPACITY = 64;

    /**
     * 当前 HashMap 所能容纳键值对数量的最大值,超过这个值,则需扩容
     */
    int threshold;

    /**
     * 已使用的容量
     */
    transient int size;

    /**
     * Node数组,实际存放 键值对 的地方
     */
    transient Node<K, V>[] table;

    /**
     * 系列构造方法,推荐在初始化时根据实际情况设置好初始容量,用好了可以显著减少 resize,提升效率
     */
    public HashMap(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
        this.loadFactor = loadFactor;
        this.threshold = tableSizeFor(initialCapacity);
    }

    public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
        Node<K, V>[] tab;
        Node<K, V> p;
        int n, i;
        // 初始化桶数组 table,table 被延迟到插入新数据时再进行初始化
        if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length;
        // 如果桶中不包含键值对节点引用,则将新键值对节点的引用存入桶中即可
        if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null);
        else {
            Node<K, V> e;
            K k;
            // 如果键的值以及节点 hash 等于链表中的第一个键值对节点时,则将 e 指向该键值对
            if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p;
                // 如果桶中的引用类型为 TreeNode,则调用红黑树的插入方法
            else if (p instanceof TreeNode) e = ((TreeNode<K, V>) p).putTreeVal(this, tab, hash, key, value);
            else {
                // 对链表进行遍历,并统计链表长度
                for (int binCount = 0; ; ++binCount) {
                    // 链表中不包含要插入的键值对节点时,则将该节点接在链表的最后
                    // !!! JDK1.7中 新增的Node节点采用头插入,而JDK1.8中改成了尾插入 !!!
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        // 如果链表长度达到阈值,则进化成红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    // 条件为 true,表示当前链表包含要插入的键值对,终止遍历
                    if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break;
                    p = e;
                }
            }
            // 判断要插入的键值对是否存在 HashMap 中
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                // onlyIfAbsent 表示是否仅在 oldValue 为 null 的情况下更新键值对的值
                if (!onlyIfAbsent || oldValue == null) e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        // 键值对数量超过阈值时,则进行扩容
        if (++size > threshold) resize();
        afterNodeInsertion(evict);
        return null;
    }

    /**
     * 扩容为原容量的两倍,并将存在的元素 放到新的数组上
     */
    final Node<K, V>[] resize() {
        Node<K, V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        // 如果 table 不为空,表明已经初始化过了
        if (oldCap > 0) {
            // 当 table 容量超过容量最大值,则不再扩容
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            // 按旧容量和阈值的2倍计算新容量和阈值的大小
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        } else if (oldThr > 0) // initial capacity was placed in threshold
            // 初始化时,将 threshold 的值赋值给 newCap,
            // HashMap 使用 threshold 变量暂时保存 initialCapacity 参数的值
            newCap = oldThr;
        else {               // zero initial threshold signifies using defaults
            // 调用无参构造方法时,桶数组容量为默认容量,
            // 阈值为默认容量与默认负载因子乘积
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int) (DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }

        // newThr 为 0 时,按阈值计算公式进行计算
        if (newThr == 0) {
            float ft = (float) newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float) MAXIMUM_CAPACITY ? (int) ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        // 创建新的桶数组,桶数组的初始化也是在这里完成的
        Node<K, V>[] newTab = (Node<K, V>[]) new Node[newCap];
        table = newTab;
        if (oldTab != null) {
            // 如果旧的桶数组不为空,则遍历桶数组,并将键值对映射到新的桶数组中
            for (int j = 0; j < oldCap; ++j) {
                Node<K, V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null) newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        // 重新映射时,需要对红黑树进行拆分
                        ((TreeNode<K, V>) e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        Node<K, V> loHead = null, loTail = null;
                        Node<K, V> hiHead = null, hiTail = null;
                        Node<K, V> next;
                        // 遍历链表,并将链表节点按原顺序进行分组
                        do {
                            next = e.next;
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null) loHead = e;
                                else loTail.next = e;
                                loTail = e;
                            } else {
                                if (hiTail == null) hiHead = e;
                                else hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        // 将分组后的链表映射到新桶中
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

    public V get(Object key) {
        Node<K, V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }

    /**
     * 根据 hash 和 key 获取相应的 Node节点
     */
    final Node<K, V> getNode(int hash, Object key) {
        Node<K, V>[] tab;
        Node<K, V> first, e;
        int n;
        K k;
        // 1. 定位键值对所在桶的位置,如果该位置有元素,则获取第一个元素
        if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) {
            // 如果hash和key都与 第一个元素相同,则第一个元素就是我们要获取的,直接返回
            if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            if ((e = first.next) != null) {
                // 2. 如果 first 是 TreeNode 类型,则调用黑红树查找方法
                if (first instanceof TreeNode)
                    return ((TreeNode<K, V>) first).getTreeNode(hash, key);
                // 3. 对链表进行查找
                do {
                    if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }

    /**
     * 还记HashMap底层的动态数组的定义吗 transient Node[] table
     * 这里很明显是一个单向链表结构
     */
    static class Node<K, V> implements Map.Entry<K, V> {
        final int hash;
        final K key;
        V value;
        Node<K, V> next;

        Node(int hash, K key, V value, Node<K, V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }

        public final K getKey() {
            return key;
        }

        public final V getValue() {
            return value;
        }

        public final String toString() {
            return key + "=" + value;
        }

        public final int hashCode() {
            return Objects.hashCode(key) ^ Objects.hashCode(value);
        }

        public final V setValue(V newValue) {
            V oldValue = value;
            value = newValue;
            return oldValue;
        }

        public final boolean equals(Object o) {
            if (o == this) return true;
            if (o instanceof Map.Entry) {
                Map.Entry<?, ?> e = (Map.Entry<?, ?>) o;
                if (Objects.equals(key, e.getKey()) && Objects.equals(value, e.getValue())) return true;
            }
            return false;
        }
    }

    /**
     * JDK8 加入的 红黑树TreeNode内部类,红黑树的方法比较复杂,这里只展示一些重要的
     * 属性结构代码
     */
    static final class TreeNode<K, V> extends LinkedHashMap.Entry<K, V> {
        TreeNode<K, V> parent;  // red-black tree links
        TreeNode<K, V> left;
        TreeNode<K, V> right;
        TreeNode<K, V> prev;    // needed to unlink next upon deletion
        // 颜色,true红,false黑
        boolean red;

        TreeNode(int hash, K key, V val, Node<K, V> next) {
            super(hash, key, val, next);
        }
    }

    /**
     定位哈希桶数组索引位置
     不管增加、删除、查找键值对,定位到哈希桶数组的位置都是很关键的第一步。前面说过 HashMap 的数据结构是“数组+链表+红黑树”的结合,所以我们当然希望这个 HashMap 里面的元素位置尽量分布均匀些,尽量使得每个位置上的元素数量只有一个,那么当我们用 hash 算法求得这个位置的时候,马上就可以知道对应位置的元素就是我们要的,不用遍历链表/红黑树,大大优化了查询的效率。HashMap 定位数组索引位置,直接决定了 hash 方法的离散性能。下面是定位哈希桶数组的源码:
     */
    // 代码1
    static final int hash(Object key) { // 计算key的hash值
        int h;
        // 1.先拿到key的hashCode值; 2.将hashCode的高16位参与运算
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

    // 代码2
    int n = tab.length;
    // 将(tab.length - 1) 与 hash值进行&运算
    int index = (n - 1) & hash;

    /**
     * 从调用此方法的节点开始查找, 通过hash值和key找到对应的节点
     * 此方法是红黑树节点的查找, 红黑树是特殊的自平衡二叉查找树
     * 平衡二叉查找树的特点:左节点<根节点<右节点
     */
    final TreeNode<K, V> find(int h, Object k, Class<?> kc) {
        // 1.将p节点赋值为调用此方法的节点,即为红黑树根节点
        TreeNode<K, V> p = this;
        // 2.从p节点开始向下遍历
        do {
            int ph, dir;
            K pk;
            TreeNode<K, V> pl = p.left, pr = p.right, q;
            // 3.如果传入的hash值小于p节点的hash值,则往p节点的左边遍历
            if ((ph = p.hash) > h) p = pl;
            else if (ph < h) // 4.如果传入的hash值大于p节点的hash值,则往p节点的右边遍历
                p = pr;
                // 5.如果传入的hash值和key值等于p节点的hash值和key值,则p节点为目标节点,返回p节点
            else if ((pk = p.key) == k || (k != null && k.equals(pk))) return p;
            else if (pl == null)    // 6.p节点的左节点为空则将向右遍历
                p = pr;
            else if (pr == null)    // 7.p节点的右节点为空则向左遍历
                p = pl;
                // 8.将p节点与k进行比较
            else if ((kc != null ||
                    (kc = comparableClassFor(k)) != null) && // 8.1 kc不为空代表k实现了Comparable
                    (dir = compareComparables(kc, k, pk)) != 0)// 8.2 kpk则dir>0
                // 8.3 k
                p = (dir < 0) ? pl : pr;
                // 9.代码走到此处, 代表key所属类没有实现Comparable, 直接指定向p的右边遍历
            else if ((q = pr.find(h, k, kc)) != null) return q;
                // 10.代码走到此处代表“pr.find(h, k, kc)”为空, 因此直接向左遍历
            else p = pl;
        } while (p != null);
        return null;
    }

    /**
     * 红黑树的put操作,红黑树插入会同时维护原来的链表属性, 即原来的next属性
     */
    final TreeNode<K, V> putTreeVal(HashMap<K, V> map, Node<K, V>[] tab, int h, K k, V v) {
        Class<?> kc = null;
        boolean searched = false;
        // 1.查找根节点, 索引位置的头节点并不一定为红黑树的根节点
        TreeNode<K, V> root = (parent != null) ? root() : this;
        // 2.将根节点赋值给p节点,开始进行查找
        for (TreeNode<K, V> p = root; ; ) {
            int dir, ph;
            K pk;
            // 3.如果传入的hash值小于p节点的hash值,将dir赋值为-1,代表向p的左边查找树
            if ((ph = p.hash) > h) dir = -1;
                // 4.如果传入的hash值大于p节点的hash值, 将dir赋值为1,代表向p的右边查找树
            else if (ph < h) dir = 1;
                // 5.如果传入的hash值和key值等于p节点的hash值和key值, 则p节点即为目标节点, 返回p节点
            else if ((pk = p.key) == k || (k != null && k.equals(pk)))
                return p;
                // 6.如果k所属的类没有实现Comparable接口 或者 k和p节点的key相等
            else if ((kc == null &&
                    (kc = comparableClassFor(k)) == null) ||
                    (dir = compareComparables(kc, k, pk)) == 0) {
                // 6.1 第一次符合条件, 从p节点的左节点和右节点分别调用find方法进行查找, 如果查找到目标节点则返回
                if (!searched) {
                    TreeNode<K, V> q, ch;
                    searched = true;
                    if (((ch = p.left) != null &&
                            (q = ch.find(h, k, kc)) != null) ||
                            ((ch = p.right) != null &&
                                    (q = ch.find(h, k, kc)) != null))
                        return q;
                }
                // 6.2 否则使用定义的一套规则来比较k和p节点的key的大小, 用来决定向左还是向右查找
                dir = tieBreakOrder(k, pk); // dir<0则代表k
            }

            TreeNode<K, V> xp = p;   // xp赋值为x的父节点,中间变量,用于下面给x的父节点赋值
            // 7.dir<=0则向p左边查找,否则向p右边查找,如果为null,则代表该位置即为x的目标位置
            if ((p = (dir <= 0) ? p.left : p.right) == null) {
                // 走进来代表已经找到x的位置,只需将x放到该位置即可
                Node<K, V> xpn = xp.next;    // xp的next节点
                // 8.创建新的节点, 其中x的next节点为xpn, 即将x节点插入xp与xpn之间
                TreeNode<K, V> x = map.newTreeNode(h, k, v, xpn);
                // 9.调整x、xp、xpn之间的属性关系
                if (dir <= 0)   // 如果时dir <= 0, 则代表x节点为xp的左节点
                    xp.left = x;
                else        // 如果时dir> 0, 则代表x节点为xp的右节点
                    xp.right = x;
                xp.next = x;    // 将xp的next节点设置为x
                x.parent = x.prev = xp; // 将x的parent和prev节点设置为xp
                // 如果xpn不为空,则将xpn的prev节点设置为x节点,与上文的x节点的next节点对应
                if (xpn != null) ((TreeNode<K, V>) xpn).prev = x;
                // 10.进行红黑树的插入平衡调整
                moveRootToFront(tab, balanceInsertion(root, x));
                return null;
            }
        }
    }

    /**
     * 将链表节点转为红黑树节点
     */
    final void treeifyBin(Node<K, V>[] tab, int hash) {
        int n, index;
        Node<K, V> e;
        // 1.如果table为空或者table的长度小于64, 调用resize方法进行扩容
        if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY) resize();
            // 2.根据hash值计算索引值,将该索引位置的节点赋值给e,从e开始遍历该索引位置的链表
        else if ((e = tab[index = (n - 1) & hash]) != null) {
            TreeNode<K, V> hd = null, tl = null;
            do {
                // 3.将链表节点转红黑树节点
                TreeNode<K, V> p = replacementTreeNode(e, null);
                // 4.如果是第一次遍历,将头节点赋值给hd
                if (tl == null)    // tl为空代表为第一次循环
                    hd = p;
                else {
                    // 5.如果不是第一次遍历,则处理当前节点的prev属性和上一个节点的next属性
                    p.prev = tl;    // 当前节点的prev属性设为上一个节点
                    tl.next = p;    // 上一个节点的next属性设置为当前节点
                }
                // 6.将p节点赋值给tl,用于在下一次循环中作为上一个节点进行一些链表的关联操作(p.prev = tl 和 tl.next = p)
                tl = p;
            } while ((e = e.next) != null);
            // 7.将table该索引位置赋值为新转的TreeNode的头节点,如果该节点不为空,则以以头节点(hd)为根节点, 构建红黑树
            if ((tab[index] = hd) != null) hd.treeify(tab);
        }
    }

    /**
     * 将红黑树节点转为链表节点, 当节点<=6个时会被触发
     */
    final Node<K, V> untreeify(HashMap<K, V> map) {
        Node<K, V> hd = null, tl = null; // hd指向头节点, tl指向尾节点
        // 1.从调用该方法的节点, 即链表的头节点开始遍历, 将所有节点全转为链表节点
        for (Node<K, V> q = this; q != null; q = q.next) {
            // 2.调用replacementNode方法构建链表节点
            Node<K, V> p = map.replacementNode(q, null);
            // 3.如果tl为null, 则代表当前节点为第一个节点, 将hd赋值为该节点
            if (tl == null) hd = p;
                // 4.否则, 将尾节点的next属性设置为当前节点p
            else tl.next = p;
            tl = p; // 5.每次都将tl节点指向当前节点, 即尾节点
        }
        // 6.返回转换后的链表的头节点
        return hd;
    }

    /**
     * 扩容后,红黑树的hash分布,只可能存在于两个位置:原索引位置、原索引位置+oldCap
     */
    final void split(HashMap<K, V> map, Node<K, V>[] tab, int index, int bit) {
        TreeNode<K, V> b = this;    // 拿到调用此方法的节点
        TreeNode<K, V> loHead = null, loTail = null; // 存储索引位置为:“原索引位置”的节点
        TreeNode<K, V> hiHead = null, hiTail = null; // 存储索引位置为:“原索引+oldCap”的节点
        int lc = 0, hc = 0;
        // 1.以调用此方法的节点开始,遍历整个红黑树节点
        for (TreeNode<K, V> e = b, next; e != null; e = next) {    // 从b节点开始遍历
            next = (TreeNode<K, V>) e.next;   // next赋值为e的下个节点
            e.next = null;  // 同时将老表的节点设置为空,以便垃圾收集器回收
            // 2.如果e的hash值与老表的容量进行与运算为0,则扩容后的索引位置跟老表的索引位置一样
            if ((e.hash & bit) == 0) {
                if ((e.prev = loTail) == null)  // 如果loTail为空, 代表该节点为第一个节点
                    loHead = e; // 则将loHead赋值为第一个节点
                else loTail.next = e;    // 否则将节点添加在loTail后面
                loTail = e; // 并将loTail赋值为新增的节点
                ++lc;   // 统计原索引位置的节点个数
            }
            // 3.如果e的hash值与老表的容量进行与运算为非0,则扩容后的索引位置为:老表的索引位置+oldCap
            else {
                if ((e.prev = hiTail) == null)  // 如果hiHead为空, 代表该节点为第一个节点
                    hiHead = e; // 则将hiHead赋值为第一个节点
                else hiTail.next = e;    // 否则将节点添加在hiTail后面
                hiTail = e; // 并将hiTail赋值为新增的节点
                ++hc;   // 统计索引位置为原索引+oldCap的节点个数
            }
        }
        // 4.如果原索引位置的节点不为空
        if (loHead != null) {   // 原索引位置的节点不为空
            // 4.1 如果节点个数<=6个则将红黑树转为链表结构
            if (lc <= UNTREEIFY_THRESHOLD) tab[index] = loHead.untreeify(map);
            else {
                // 4.2 将原索引位置的节点设置为对应的头节点
                tab[index] = loHead;
                // 4.3 如果hiHead不为空,则代表原来的红黑树(老表的红黑树由于节点被分到两个位置)
                // 已经被改变, 需要重新构建新的红黑树
                if (hiHead != null)
                    // 4.4 以loHead为根节点, 构建新的红黑树
                    loHead.treeify(tab);
            }
        }
        // 5.如果索引位置为原索引+oldCap的节点不为空
        if (hiHead != null) {   // 索引位置为原索引+oldCap的节点不为空
            // 5.1 如果节点个数<=6个则将红黑树转为链表结构
            if (hc <= UNTREEIFY_THRESHOLD) tab[index + bit] = hiHead.untreeify(map);
            else {
                // 5.2 将索引位置为原索引+oldCap的节点设置为对应的头节点
                tab[index + bit] = hiHead;
                // 5.3 loHead不为空则代表原来的红黑树(老表的红黑树由于节点被分到两个位置)
                // 已经被改变, 需要重新构建新的红黑树
                if (loHead != null)
                    // 5.4 以hiHead为根节点, 构建新的红黑树
                    hiHead.treeify(tab);
            }
        }
    }

    /**
     * 移除某个节点
     */
    public V remove(Object key) {
        Node<K, V> e;
        return (e = removeNode(hash(key), key, null, false, true)) == null ?null : e.value;
    }

    final Node<K, V> removeNode(int hash, Object key, Object value, boolean matchValue, boolean movable) {
        Node<K, V>[] tab;
        Node<K, V> p;
        int n, index;
        // 1.如果table不为空并且根据hash值计算出来的索引位置不为空, 将该位置的节点赋值给p
        if ((tab = table) != null && (n = tab.length) > 0 &&
                (p = tab[index = (n - 1) & hash]) != null) {
            Node<K, V> node = null, e;
            K k;
            V v;
            // 2.如果p的hash值和key都与入参的相同, 则p即为目标节点, 赋值给node
            if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                node = p;
            else if ((e = p.next) != null) {
                // 3.否则将p.next赋值给e,向下遍历节点
                // 3.1 如果p是TreeNode则调用红黑树的方法查找节点
                if (p instanceof TreeNode)
                    node = ((TreeNode<K, V>) p).getTreeNode(hash, key);
                else {
                    // 3.2 否则,进行普通链表节点的查找
                    do {
                        // 当节点的hash值和key与传入的相同,则该节点即为目标节点
                        if (e.hash == hash &&
                                ((k = e.key) == key ||
                                        (key != null && key.equals(k)))) {
                            node = e;    // 赋值给node, 并跳出循环
                            break;
                        }
                        p = e;  // p节点赋值为本次结束的e,在下一次循环中,e为p的next节点
                    } while ((e = e.next) != null); // e指向下一个节点
                }
            }
            // 4.如果node不为空(即根据传入key和hash值查找到目标节点),则进行移除操作
            if (node != null && (!matchValue || (v = node.value) == value ||
                    (value != null && value.equals(v)))) {
                // 4.1 如果是TreeNode则调用红黑树的移除方法
                if (node instanceof TreeNode)
                    ((TreeNode<K, V>) node).removeTreeNode(this, tab, movable);
                    // 4.2 如果node是该索引位置的头节点则直接将该索引位置的值赋值为node的next节点,
                    // “node == p”只会出现在node是头节点的时候,如果node不是头节点,则node为p的next节点
                else if (node == p)
                    tab[index] = node.next;
                    // 4.3 否则将node的上一个节点的next属性设置为node的next节点,
                    // 即将node节点移除, 将node的上下节点进行关联(链表的移除)
                else
                    p.next = node.next;
                ++modCount;
                --size;
                afterNodeRemoval(node); // 供LinkedHashMap使用
                // 5.返回被移除的节点
                return node;
            }
        }
        return null;
    }

    /**
     * 红黑树的节点移除
     */
    final void removeTreeNode(HashMap<K, V> map, Node<K, V>[] tab, boolean movable) {
        // --- 链表的处理start ---
        int n;
        // 1.table为空或者length为0直接返回
        if (tab == null || (n = tab.length) == 0)
            return;
        // 2.根据hash计算出索引的位置
        int index = (n - 1) & hash;
        // 3.将索引位置的头节点赋值给first和root
        TreeNode<K, V> first = (TreeNode<K, V>) tab[index], root = first, rl;
        // 4.该方法被将要被移除的node(TreeNode)调用, 因此此方法的this为要被移除node节点,
        // 将node的next节点赋值给succ节点,prev节点赋值给pred节点
        TreeNode<K, V> succ = (TreeNode<K, V>) next, pred = prev;
        // 5.如果pred节点为空,则代表要被移除的node节点为头节点,
        // 则将table索引位置的值和first节点的值赋值为succ节点(node的next节点)即可
        if (pred == null)
            tab[index] = first = succ;
        else
            // 6.否则将pred节点的next属性设置为succ节点(node的next节点)
            pred.next = succ;
        // 7.如果succ节点不为空,则将succ的prev节点设置为pred, 与前面对应
        if (succ != null)
            succ.prev = pred;
        // 8.如果进行到此first节点为空,则代表该索引位置已经没有节点则直接返回
        if (first == null)
            return;
        // 9.如果root的父节点不为空, 则将root赋值为根节点
        if (root.parent != null)
            root = root.root();
        // 10.通过root节点来判断此红黑树是否太小, 如果是则调用untreeify方法转为链表节点并返回
        // (转链表后就无需再进行下面的红黑树处理)
        if (root == null || root.right == null ||
                (rl = root.left) == null || rl.left == null) {
            tab[index] = first.untreeify(map);  // too small
            return;
        }
        // --- 链表的处理end ---

        // --- 以下代码为红黑树的处理 ---
        // 11.将p赋值为要被移除的node节点,pl赋值为p的左节点,pr赋值为p 的右节点
        TreeNode<K, V> p = this, pl = left, pr = right, replacement;
        // 12.如果p的左节点和右节点都不为空时
        if (pl != null && pr != null) {
            // 12.1 将s节点赋值为p的右节点
            TreeNode<K, V> s = pr, sl;
            // 12.2 向左一直查找,跳出循环时,s为没有左节点的节点
            while ((sl = s.left) != null)
                s = sl;
            // 12.3 交换p节点和s节点的颜色
            boolean c = s.red;
            s.red = p.red;
            p.red = c;
            TreeNode<K, V> sr = s.right; // s的右节点
            TreeNode<K, V> pp = p.parent;    // p的父节点
            // --- 第一次调整和第二次调整:将p节点和s节点进行了位置调换 ---
            // 12.4 第一次调整
            // 如果p节点的右节点即为s节点,则将p的父节点赋值为s,将s的右节点赋值为p
            if (s == pr) {
                p.parent = s;
                s.right = p;
            } else {
                // 将sp赋值为s的父节点
                TreeNode<K, V> sp = s.parent;
                // 将p的父节点赋值为sp
                if ((p.parent = sp) != null) {
                    // 如果s节点为sp的左节点,则将sp的左节点赋值为p节点
                    if (s == sp.left)
                        sp.left = p;
                        // 否则s节点为sp的右节点,则将sp的右节点赋值为p节点
                    else
                        sp.right = p;
                }
                // s的右节点赋值为p节点的右节点
                if ((s.right = pr) != null)
                    // 如果pr不为空,则将pr的父节点赋值为s
                    pr.parent = s;
            }
            // 12.5 第二次调整
            // 将p的左节点赋值为空,pl已经保存了该节点
            p.left = null;
            // 将p节点的右节点赋值为sr,如果sr不为空,则将sr的父节点赋值为p节点
            if ((p.right = sr) != null)
                sr.parent = p;
            // 将s节点的左节点赋值为pl,如果pl不为空,则将pl的父节点赋值为s节点
            if ((s.left = pl) != null)
                pl.parent = s;
            // 将s的父节点赋值为p的父节点pp
            // 如果pp为空,则p节点为root节点, 交换后s成为新的root节点
            if ((s.parent = pp) == null)
                root = s;
                // 如果p不为root节点, 并且p是pp的左节点,则将pp的左节点赋值为s节点
            else if (p == pp.left)
                pp.left = s;
                // 如果p不为root节点, 并且p是pp的右节点,则将pp的右节点赋值为s节点
            else
                pp.right = s;
            // 12.6 寻找replacement节点,用来替换掉p节点
            // 12.6.1 如果sr不为空,则replacement节点为sr,因为s没有左节点,所以使用s的右节点来替换p的位置
            if (sr != null)
                replacement = sr;
                // 12.6.1 如果sr为空,则s为叶子节点,replacement为p本身,只需要将p节点直接去除即可
            else
                replacement = p;
        }
        // 13.承接12点的判断,如果p的左节点不为空,右节点为空,replacement节点为p的左节点
        else if (pl != null)
            replacement = pl;
            // 14.如果p的右节点不为空,左节点为空,replacement节点为p的右节点
        else if (pr != null)
            replacement = pr;
            // 15.如果p的左右节点都为空, 即p为叶子节点, replacement节点为p节点本身
        else
            replacement = p;
        // 16.第三次调整:使用replacement节点替换掉p节点的位置,将p节点移除
        if (replacement != p) { // 如果p节点不是叶子节点
            // 16.1 将p节点的父节点赋值给replacement节点的父节点, 同时赋值给pp节点
            TreeNode<K, V> pp = replacement.parent = p.parent;
            // 16.2 如果p没有父节点, 即p为root节点,则将root节点赋值为replacement节点即可
            if (pp == null)
                root = replacement;
                // 16.3 如果p不是root节点, 并且p为pp的左节点,则将pp的左节点赋值为替换节点replacement
            else if (p == pp.left)
                pp.left = replacement;
                // 16.4 如果p不是root节点, 并且p为pp的右节点,则将pp的右节点赋值为替换节点replacement
            else
                pp.right = replacement;
            // 16.5 p节点的位置已经被完整的替换为replacement, 将p节点清空, 以便垃圾收集器回收
            p.left = p.right = p.parent = null;
        }
        // 17.如果p节点不为红色则进行红黑树删除平衡调整
        // (如果删除的节点是红色则不会破坏红黑树的平衡无需调整)
        TreeNode<K, V> r = p.red ? root : balanceDeletion(root, replacement);

        // 18.如果p节点为叶子节点, 则简单的将p节点去除即可
        if (replacement == p) {
            TreeNode<K, V> pp = p.parent;
            // 18.1 将p的parent属性设置为空
            p.parent = null;
            if (pp != null) {
                // 18.2 如果p节点为父节点的左节点,则将父节点的左节点赋值为空
                if (p == pp.left)
                    pp.left = null;
                    // 18.3 如果p节点为父节点的右节点, 则将父节点的右节点赋值为空
                else if (p == pp.right)
                    pp.right = null;
            }
        }
        if (movable)
            // 19.将root节点移到索引位置的头节点
            moveRootToFront(tab, r);
    }
}

源码部分 结合注释还是很容易看懂的,比较复杂的是红黑树这种数据结构,以及红黑树与链表之间的相互转换。下面我们回顾下这个数据结构。

红黑树

红黑树是一种自平衡的二叉查找树,比普通的二叉查找树效率更高,它可在 O(logN) 时间内完成查找、增加、删除等操作。

普通的二叉查找树在极端情况下可退化成链表,导致 增、删、查 效率低下。红黑树通过定义一些性质,将任意节点的左右子树高度差控制在规定范围内,以达到平衡状态,红黑树的性质定义如下。

  1. 节点是红色或黑色。
  2. 根是黑色。
  3. 所有叶子都是黑色(叶子是 NIL 节点)。
  4. 每个红色节点必须有两个黑色的子节点。(从每个叶子到根的所有路径上不能有两个连续的红色节点。)
  5. 从任一节点到其每个叶子的所有简单路径都包含相同数目的黑色节点。

红黑树的操作和其他树一样,包括查找、插入、删除等,其查找过程和二叉查找树一样简单,但插入和删除操作要复杂的多,这也是其 为保持平衡性 不会退化成链表 所付出的代价。红黑树为保持平衡性 所进行的操作主要有 旋转(左旋、右旋)和变色。

红黑树的实现 确实比较复杂,光是理解其 插入、删除 的操作原理 就蛮费劲,所以这里先挖个坑,后面单独用一篇博文来分析 HashMap 的 内部类 TreeNode 对红黑树数据结构的实现。

总结

  • HashMap 的底层是个 Node 数组(Node[] table),在数组的具体索引位置,如果存在多个节点,则可能是以链表或红黑树的形式存在。
  • 增加、删除、查找键值对时,定位到哈希桶数组的位置是很关键的一步,源码中是通过下面3个操作来完成这一步: 1)拿到 key 的 hashCode 值; 2)将 hashCode 的高位参与运算,重新计算 hash 值; 3)将计算出来的
    hash 值与 “table.length - 1” 进行 & 运算。
  • HashMap 的默认初始容量(capacity)是 16,capacity 必须为 2 的幂次方;默认负载因子(load factor)是 0.75;实际能存放的节点个数(threshold,即触发扩容的阈值)= capacity *
    load factor。
  • HashMap 在触发扩容后,阈值会变为原来的 2 倍,并且会对所有节点进行重 hash 分布,重 hash 分布后节点的新分布位置只可能有两个:“原索引位置” 或 “原索引+oldCap位置”。例如 capacity 为16,索引位置
    5 的节点扩容后,只可能分布在新表 “索引位置5” 和 “索引位置21(5+16)”。
  • 导致 HashMap 扩容后,同一个索引位置的节点重 hash 最多分布在两个位置的根本原因是:1)table的长度始终为 2 的 n 次方;2)索引位置的计算方法为 “(table.length - 1) &
    hash”。HashMap 扩容是一个比较耗时的操作,定义 HashMap 时尽量给个接近的初始容量值。
  • HashMap 有 threshold 属性和 loadFactor 属性,但是没有 capacity 属性。初始化时,如果传了初始化容量值,该值是存在 threshold 变量,并且 Node 数组是在第一次 put
    时才会进行初始化,初始化时会将此时的 threshold 值作为新表的 capacity 值,然后用 capacity 和 loadFactor 计算新表的真正 threshold 值。
  • 当同一个索引位置的节点在增加后达到 9 个时,并且此时数组的长度大于等于 64,则会触发链表节点(Node)转红黑树节点(TreeNode),转成红黑树节点后,其实链表的结构还存在,通过 next
    属性维持。链表节点转红黑树节点的具体方法为源码中的 treeifyBin 方法。而如果数组长度小于64,则不会触发链表转红黑树,而是会进行扩容。
  • 当同一个索引位置的节点在移除后达到 6 个时,并且该索引位置的节点为红黑树节点,会触发红黑树节点转链表节点。红黑树节点转链表节点的具体方法为源码中的 untreeify 方法。
  • HashMap 在 JDK 1.8 之后不再有死循环的问题,JDK 1.8 之前存在死循环的根本原因是在扩容后同一索引位置的节点顺序会反掉。
  • HashMap 是非线程安全的,在并发场景下使用 ConcurrentHashMap 来代替。

ConcurrentHashMap核心源码

HashMap 源码中主要了解其核心源码及实现逻辑。ConcurrentHashMap 就不再重复那些数据结构相关的内容咯,这里重点看一下它的并发安全实现。源码如下。
##源码拜读

public class ConcurrentHashMap<K, V> extends AbstractMap<K, V> implements ConcurrentMap<K, V>, Serializable {
    /* --------- 常量及成员变量的设计 几乎与HashMap相差无几 -------- */
    /**
     * 最大容量
     */
    private static final int MAXIMUM_CAPACITY = 1 << 30;

    /**
     * 默认初始容量
     */
    private static final int DEFAULT_CAPACITY = 16;

    /**
     单个数组最大容量
     参考jdk1.8的ArrayList的源码注释,意思应该是有些虚拟机在数组中保留了一些头信息,避免内存溢出。
     */
    static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;

    /**
     默认并发等级,也就分成多少个单独上锁的区域。jdk1.7遗留下来的,只在初始化时使用。
     1.8的并发级别有了大的改动,具体并发级别可以认为是hash桶是数量,也就是容量,会随扩容而改变,不再是固定值
     */
    private static final int DEFAULT_CONCURRENCY_LEVEL = 16;

    /**
     扩容因子
     */
    private static final float LOAD_FACTOR = 0.75f;
    /**
     扩容操作中,transfer这个步骤是允许多线程的,这个常量表示一个线程执行transfer时,最少要对连续的16个hash桶进行transfer  (不足16就按16算,多控制下正负号就行)
     也就是单线程执行transfer时的最小任务量,单位为一个hash桶,这就是线程的transfer的步进(stride)
     最小值是DEFAULT_CAPACITY,不使用太小的值,避免太小的值引起transfer时线程竞争过多,如果计算出来的值小于此值,就使用此值
     正常步骤中会根据CPU核心数目来算出实际的,一个核心允许8个线程并发执行扩容操作的transfer步骤,这个8是个经验值,不能调整的
     因为transfer操作不是IO操作,也不是死循环那种100%的CPU计算,CPU计算率中等,1核心允许8个线程并发完成扩容,理想情况下也算是比较合理的值
     一段代码的IO操作越多,1核心对应的线程就要相应设置多点,CPU计算越多,1核心对应的线程就要相应设置少一些
     表明:默认的容量是16,也就是默认构造的实例,第一次扩容实际上是单线程执行的,看上去是可以多线程并发(方法允许多个线程进入),
     但是实际上其余的线程都会被一些if判断拦截掉,不会真正去执行扩容
     */
    private static final int MIN_TRANSFER_STRIDE = 16;

    /**
     用于生成每次扩容都唯一的生成戳的数,最小是6。很奇怪,这个值不是常量,但是也不提供修改方法。
     */
    private static int RESIZE_STAMP_BITS = 16;

    /**
     最大的扩容线程的数量,如果上面的 RESIZE_STAMP_BITS = 32,那么此值为 0,这一点也很奇怪。
     */
    private static final int MAX_RESIZERS = (1 << (32 - RESIZE_STAMP_BITS)) - 1;

    /**
     移位量,把生成戳移位后保存在sizeCtl中当做扩容线程计数的基数,相反方向移位后能够反解出生成戳
     */
    private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;

    /**
     下面几个是特殊的节点的hash值,正常节点的hash值在hash函数中都处理过了,不会出现负数的情况,特殊节点在各自的实现类中有特殊的遍历方法
     ForwardingNode的hash值,ForwardingNode是一种临时节点,在扩进行中才会出现,并且它不存储实际的数据
     如果旧数组的一个hash桶中全部的节点都迁移到新数组中,旧数组就在这个hash桶中放置一个ForwardingNode
     读操作或者迭代读时碰到ForwardingNode时,将操作转发到扩容后的新的table数组上去执行,写操作碰见它时,则尝试 帮助扩容
     */
    static final int MOVED = -1;

    /**
     *   TreeBin的hash值,TreeBin是ConcurrentHashMap中用于代理操作TreeNode的特殊节点,持有存储实际数据的红黑树的根节点
     *   因为红黑树进行写入操作,整个树的结构可能会有很大的变化,这个对读线程有很大的影响,
     *   所以TreeBin还要维护一个简单读写锁,这是相对HashMap,这个类新引入这种特殊节点的重要原因
     */
    static final int TREEBIN = -2;

    /**
     *   ReservationNode的hash值,ReservationNode是一个保留节点,就是个占位符,不会保存实际的数据,正常情况是不会出现的,
     *   在jdk1.8新的函数式有关的两个方法computeIfAbsent和compute中才会出现
     */
    static final int RESERVED = -3;

    /**
     *   用于和负数hash值进行 & 运算,将其转化为正数(绝对值不相等),Hashtable中定位hash桶也有使用这种方式来进行负数转正数
     */
    static final int HASH_BITS = 0x7fffffff;

    /**
     *   CPU的核心数,用于在扩容时计算一个线程一次要干多少活
     */
    static final int NCPU = Runtime.getRuntime().availableProcessors();

    /**
     *
     */
    transient volatile Node<K, V>[] table;

    /**
     *
     */
    private transient volatile Node<K, V>[] nextTable;

    /**
     * ConcurrentHashMap 的核心就在于其put元素时 利用synchronized局部锁 和
     * CAS乐观锁机制 大大提升了本集合的并发能力,比JDK7的分段锁性能更强
     */
    public V put(K key, V value) {
        return putVal(key, value, false);
    }

    /**
     当前指定数组位置无元素时,使用CAS操作 将 Node键值对 放入对应的数组下标。
     出现hash冲突,则用synchronized局部锁锁住,若当前hash对应的节点是链表的头节点,遍历链表,
     若找到对应的node节点,则修改node节点的val,否则在链表末尾添加node节点;倘若当前节点是
     红黑树的根节点,在树结构上遍历元素,更新或增加节点
     */
    final V putVal(K key, V value, boolean onlyIfAbsent) {
        if (key == null || value == null) throw new NullPointerException();
        int hash = spread(key.hashCode());
        int binCount = 0;
        for (Node<K, V>[] tab = table; ; ) {
            Node<K, V> f;
            int n, i, fh;
            if (tab == null || (n = tab.length) == 0)
                tab = initTable();
            else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
                // 注意!这是一个CAS的方法,将新节点放入指定位置,不用加锁阻塞线程
                // 也能保证并发安全
                if (casTabAt(tab, i, null, new Node<K, V>(hash, key, value, null)))
                    break; // no lock when adding to empty bin
            }
            // 当前Map在扩容,先协助扩容,在更新值
            else if ((fh = f.hash) == MOVED)
                tab = helpTransfer(tab, f);
            else { // hash冲突
                V oldVal = null;
                // 局部锁,有效减少锁竞争的发生
                synchronized (f) { // f 是 链表头节点/红黑树根节点
                    if (tabAt(tab, i) == f) {
                        if (fh >= 0) {
                            binCount = 1;
                            for (Node<K, V> e = f; ; ++binCount) {
                                K ek;
                                // 若节点已经存在,修改该节点的值
                                if (e.hash == hash && ((ek = e.key) == key || (ek != null && key.equals(ek)))) {
                                    oldVal = e.val;
                                    if (!onlyIfAbsent) e.val = value;
                                    break;
                                }
                                Node<K, V> pred = e;
                                // 节点不存在,添加到链表末尾
                                if ((e = e.next) == null) {
                                    pred.next = new Node<K, V>(hash, key, value, null);
                                    break;
                                }
                            }
                        }
                        // 如果该节点是 红黑树节点
                        else if (f instanceof TreeBin) {
                            Node<K, V> p;
                            binCount = 2;
                            if ((p = ((TreeBin<K, V>) f).putTreeVal(hash, key, value)) != null) {
                                oldVal = p.val;
                                if (!onlyIfAbsent) p.val = value;
                            }
                        }
                    }
                }
                // 链表节点超过了8,链表转为红黑树
                if (binCount != 0) {
                    if (binCount >= TREEIFY_THRESHOLD) treeifyBin(tab, i);
                    if (oldVal != null) return oldVal;
                    break;
                }
            }
        }
        // 统计节点个数,检查是否需要resize
        addCount(1L, binCount);
        return null;
    }

    /**
     Node是最核心的内部类,它包装了key-value键值对,所有插入ConcurrentHashMap的数据都包装在这里面。
     它与HashMap中的定义很相似,但是但是有一些差别它对value和next属性设置了volatile同步锁,它不允许
     调用setValue方法直接改变Node的value域,它增加了find方法辅助map.get()方法。
     */
    static class Node<K, V> implements Map.Entry<K, V> {
        final int hash;
        final K key;
        volatile V val;//带有同步锁的value
        volatile Node<K, V> next;//带有同步锁的next指针

        public final int hashCode() {
            return key.hashCode() ^ val.hashCode();
        }

        //不允许直接改变value的值
        public final V setValue(V value) {
            throw new UnsupportedOperationException();
        }

        public final boolean equals(Object o) {
            Object k, v, u;
            Map.Entry<?, ?> e;
            return ((o instanceof Map.Entry) &&
                    (k = (e = (Map.Entry<?, ?>) o).getKey()) != null &&
                    (v = e.getValue()) != null &&
                    (k == key || k.equals(key)) &&
                    (v == (u = val) || v.equals(u)));
        }

        /**
         * Virtualized support for map.get(); overridden in subclasses.
         */
        Node<K, V> find(int h, Object k) {
            Node<K, V> e = this;
            if (k != null) {
                do {
                    K ek;
                    if (e.hash == h && ((ek = e.key) == k || (ek != null && k.equals(ek)))) return e;
                } while ((e = e.next) != null);
            }
            return null;
        }
    }

    /**
     ConcurrentHashMap的初始化只能由一个线程完成。如果获得了初始化权限,就用CAS方法将sizeCtl置为-1,
     防止其他线程进入。初始化数组后,将sizeCtl的值改为0.75*n
     */
    private final Node<K, V>[] initTable() {
        Node<K, V>[] tab;
        int sc;
        while ((tab = table) == null || tab.length == 0) {
            //sizeCtl表示有其他线程正在进行初始化操作,把线程挂起。对于table的初始化工作,只能有一个线程在进行。
            if ((sc = sizeCtl) < 0)
                Thread.yield(); // lost initialization race; just spin
            else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {//利用CAS方法把sizectl的值置为-1 表示本线程正在进行初始化
                try {
                    if ((tab = table) == null || tab.length == 0) {
                        int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                        @SuppressWarnings("unchecked")
                        Node<K, V>[] nt = (Node<K, V>[]) new Node<?, ?>[n];
                        table = tab = nt;
                        sc = n - (n >>> 2);//相当于0.75*n 设置一个扩容的阈值
                    }
                } finally {
                    sizeCtl = sc;
                }
                break;
            }
        }
        return tab;
    }
}

三大核心方法

 @SuppressWarnings("unchecked")
//获得在i位置上的Node节点
static final<K, V> Node<K, V> tabAt(Node<K, V>[]tab,int i){
        return(Node<K, V>)U.getObjectVolatile(tab,((long)i<<ASHIFT)+ABASE);
}
//利用CAS算法设置i位置上的Node节点。之所以能实现并发是因为他指定了原来这个节点的值是多少
//在CAS算法中,会比较内存中的值与你指定的这个值是否相等,如果相等才接受你的修改,否则拒绝你的修改
//因此当前线程中的值并不是最新的值,这种修改可能会覆盖掉其他线程的修改结果  有点类似于SVN
static final<K, V> boolean casTabAt(Node<K, V>[]tab,int i,Node<K, V> c,Node<K, V> v){
        return U.compareAndSwapObject(tab,((long)i<<ASHIFT)+ABASE,c,v);
}
//利用volatile方法设置节点位置的值
static final<K, V> void setTabAt(Node<K, V>[]tab,int i,Node<K, V> v){
        U.putObjectVolatile(tab,((long)i<<ASHIFT)+ABASE,v);
}

扩容方法

整个扩容操作分为两个部分

  • 第一部分是构建一个nextTable,它的容量是原来的两倍,这个操作是单线程完成的。这个单线程的保证是通过RESIZE_STAMP_SHIFT这个常量经过一次运算来保证的,这个地方在后面会有提到;

  • 第二个部分就是将原来table中的元素复制到nextTable中,这里允许多线程进行操作。

与 JDK1.7 在同步机制上的区别
总结如下:
JDK1.7 使用的是分段锁机制,其内部类 Segment 继承了 ReentrantLock,将 容器内的数组划分成多段区域,每个区域对应一把锁,相比于 HashTable
确实提升了不少并发能力,但在数据量庞大的情况下,性能依然不容乐观,只能通过不断的增加锁来维持并发性能。而 JDK1.8 则使用了 CAS 乐观锁 + synchronized 局部锁
处理并发问题,锁粒度更细,即使数据量很大也能保证良好的并发性。

参考文献

史上最详细的 JDK 1.8 HashMap 源码解析 https://blog.csdn.net/v123411739/article/details/78996181

你可能感兴趣的:(源码,Java,#,Java基础,Java8,java源码,hashmap,HashMap源码)