HashMap&ConcurrentHashMap总结

文章目录

  • HashMap
    • 一、什么是哈希表
      • **哈希冲突**
    • 二、HashMap的实现原理
      • jdk7和jdk8扩容时的区别
    • 三、为何HashMap的数组长度一定是2的次幂?
    • 四、重写equals方法需同时重写hashCode方法
    • 五、JDK1.8中HashMap的性能优化
  • JDK1.7HashMap的死循环
        • 问题的症状
        • Hash表数据结构
        • HashMap的rehash源代码
        • 正常的ReHash的过程
        • 并发下的Rehash
        • 其它
  • ConcurrentHashMap底层实现原理(JDK1.7 & 1.8)
    • 前言
    • ConcurrentHashMap
      • JDK1.7的实现
        • 初始化
        • put操作
        • get操作
        • size操作
      • JDK1.8的实现
        • Node
        • TreeNode
        • TreeBin
        • put操作
        • get操作
        • size操作
    • 总结与思考

资料汇总

HashMap

一、什么是哈希表

在讨论哈希表之前,我们先大概了解下其他数据结构在新增,查找等基础操作执行性能

数组:采用一段连续的存储单元来存储数据。对于指定下标的查找,时间复杂度为O(1);通过给定值进行查找,需要遍历数组,逐一比对给定关键字和数组元素,时间复杂度为O(n),当然,对于有序数组,则可采用二分查找,插值查找,斐波那契查找等方式,可将查找复杂度提高为O(logn);对于一般的插入删除操作,涉及到数组元素的移动,其平均复杂度也为O(n)

线性链表:对于链表的新增,删除等操作(在找到指定操作位置后),仅需处理结点间的引用即可,时间复杂度为O(1),而查找操作需要遍历链表逐一进行比对,复杂度为O(n)

二叉树:对一棵相对平衡的有序二叉树,对其进行插入,查找,删除等操作,平均复杂度均为O(logn)。

哈希表:相比上述几种数据结构,在哈希表中进行添加,删除,查找等操作,性能十分之高,不考虑哈希冲突的情况下(后面会探讨下哈希冲突的情况),仅需一次定位即可完成,时间复杂度为O(1),接下来我们就来看看哈希表是如何实现达到惊艳的常数阶O(1)的。

我们知道,数据结构的物理存储结构只有两种:顺序存储结构链式存储结构(像栈,队列,树,图等是从逻辑结构去抽象的,映射到内存中,也这两种物理组织形式),而在上面我们提到过,在数组中根据下标查找某个元素,一次定位就可以达到,哈希表利用了这种特性,哈希表的主干就是数组

比如我们要新增或查找某个元素,我们通过把当前元素的关键字 通过某个函数映射到数组中的某个位置,通过数组下标一次定位就可完成操作。
 
这个函数可以简单描述为:存储位置 = f(关键字) ,这个函数f一般称为哈希函数,这个函数的设计好坏会直接影响到哈希表的优劣。举个例子,比如我们要在哈希表中执行插入操作:
插入过程如下图所示
哈希表数据插入过程

查找操作同理,先通过哈希函数计算出实际存储地址,然后从数组中对应地址取出即可。

哈希冲突

然而万事无完美,如果两个不同的元素,通过哈希函数得出的实际存储地址相同怎么办?也就是说,当我们对某个元素进行哈希运算,得到一个存储地址,然后要进行插入的时候,发现已经被其他元素占用了,其实这就是所谓的哈希冲突,也叫哈希碰撞。前面我们提到过,哈希函数的设计至关重要,好的哈希函数会尽可能地保证 计算简单和散列地址分布均匀,但是,我们需要清楚的是,数组是一块连续的固定长度的内存空间,再好的哈希函数也不能保证得到的存储地址绝对不发生冲突。那么哈希冲突如何解决呢?哈希冲突的解决方案有多种:开放定址法(发生冲突,继续寻找下一块未被占用的存储地址),再散列函数法,链地址法,而HashMap即是采用了链地址法,也就是数组+链表的方式。

二、HashMap的实现原理

HashMap的主干是一个Entry数组。Entry是HashMap的基本组成单元,每一个Entry包含一个key-value键值对。(其实所谓Map其实就是保存了两个对象之间的映射关系的一种集合)

//HashMap的主干数组,可以看到就是一个Entry数组,初始值为空数组{},主干数组的长度一定是2的次幂。
//至于为什么这么做,后面会有详细分析。
transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;
123

Entry是HashMap中的一个静态内部类。代码如下

    static class Entry<K,V> implements Map.Entry<K,V> {
        final K key;
        V value;
        Entry<K,V> next;//存储指向下一个Entry的引用,单链表结构
        int hash;//对key的hashcode值进行hash运算后得到的值,存储在Entry,避免重复计算

        /**
         * Creates new entry.
         */
        Entry(int h, K k, V v, Entry<K,V> n) {
            value = v;
            next = n;
            key = k;
            hash = h;
        } 
123456789101112131415

所以,HashMap的总体结构如下:
在这里插入图片描述

简单来说,HashMap由数组+链表组成的,数组是HashMap的主体,链表则是主要为了解决哈希冲突而存在的,如果定位到的数组位置不含链表(当前entry的next指向null),那么查找,添加等操作很快,仅需一次寻址即可;如果定位到的数组包含链表,对于添加操作,其时间复杂度为O(n),首先遍历链表,存在即覆盖,否则新增;对于查找操作来讲,仍需遍历链表,然后通过key对象的equals方法逐一比对查找。所以,性能考虑,HashMap中的链表出现越少,性能才会越好。

其他几个重要字段

/**实际存储的key-value键值对的个数*/
transient int size;

/**阈值,当table == {}时,该值为初始容量(初始容量默认为16);当table被填充了,也就是为table分配内存空间后,
threshold一般为 capacity*loadFactory。HashMap在进行扩容时需要参考threshold,后面会详细谈到*/
int threshold;

/**负载因子,代表了table的填充度有多少,默认是0.75
加载因子存在的原因,还是因为减缓哈希冲突,如果初始桶为16,等到满16个元素才扩容,某些桶里可能就有不止一个元素了。
所以加载因子默认为0.75,也就是说大小为16的HashMap,到了第13个元素,就会扩容成32。
*/
final float loadFactor;

/**HashMap被改变的次数,由于HashMap非线程安全,在对HashMap进行迭代时,
如果期间其他线程的参与导致HashMap的结构发生变化了(比如put,remove等操作),
需要抛出异常ConcurrentModificationException*/
transient int modCount;
1234567891011121314151617

HashMap有4个构造器,其他构造器如果用户没有传入initialCapacity 和loadFactor这两个参数,会使用默认值

initialCapacity默认为16,loadFactory默认为0.75

我们看下其中一个

public HashMap(int initialCapacity, float loadFactor) {
     //此处对传入的初始容量进行校验,最大不能超过MAXIMUM_CAPACITY = 1<<30(230)
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);

        this.loadFactor = loadFactor;
        threshold = initialCapacity;
     
        init();//init方法在HashMap中没有实际实现,不过在其子类如 linkedHashMap中就会有对应实现
    }
12345678910111213141516

从上面这段代码我们可以看出,在常规构造器中,没有为数组table分配内存空间(有一个入参为指定Map的构造器例外),而是在执行put操作的时候才真正构建table数组

OK,接下来我们来看看put操作的实现

public V put(K key, V value) {
        //如果table数组为空数组{},进行数组填充(为table分配实际内存空间),入参为threshold,
        //此时threshold为initialCapacity 默认是1<<4(24=16)
        if (table == EMPTY_TABLE) {
            inflateTable(threshold);
        }
       //如果key为null,存储位置为table[0]或table[0]的冲突链上
        if (key == null)
            return putForNullKey(value);
        int hash = hash(key);//对key的hashcode进一步计算,确保散列均匀
        int i = indexFor(hash, table.length);//获取在table中的实际位置
        for (Entry<K,V> e = table[i]; e != null; e = e.next) {
        //如果该对应数据已存在,执行覆盖操作。用新value替换旧value,并返回旧value
            Object k;
            if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
                V oldValue = e.value;
                e.value = value;
                e.recordAccess(this);
                return oldValue;
            }
        }
        modCount++;//保证并发访问时,若HashMap内部结构发生变化,快速响应失败
        addEntry(hash, key, value, i);//新增一个entry
        return null;
    }
12345678910111213141516171819202122232425

inflateTable这个方法用于为主干数组table在内存中分配存储空间,通过roundUpToPowerOf2(toSize)可以确保capacity为大于或等于toSize的最接近toSize的二次幂,比如toSize=13,则capacity=16;to_size=16,capacity=16;to_size=17,capacity=32.

private void inflateTable(int toSize) {
        int capacity = roundUpToPowerOf2(toSize);//capacity一定是2的次幂
        /**此处为threshold赋值,取capacity*loadFactor和MAXIMUM_CAPACITY+1的最小值,
        capaticy一定不会超过MAXIMUM_CAPACITY,除非loadFactor大于1 */
        threshold = (int) Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1);
        table = new Entry[capacity];
        initHashSeedAsNeeded(capacity); //hash种子的目的是,可以在计算hash值得时候加入hash种子,可以使计算得到的hash值										//更散列一点
    }
12345678
  final boolean initHashSeedAsNeeded(int capacity) {
        boolean currentAltHashing = hashSeed != 0;
        boolean useAltHashing = sun.misc.VM.isBooted() &&
                (capacity >= Holder.ALTERNATIVE_HASHING_THRESHOLD);
        boolean switching = currentAltHashing ^ useAltHashing;
        if (switching) {
            hashSeed = useAltHashing
                ? sun.misc.Hashing.randomHashSeed(this)
                : 0;
        }
        return switching;
    }

roundUpToPowerOf2中的这段处理使得数组长度一定为2的次幂,Integer.highestOneBit是用来获取最左边的bit(其他bit位为0)所代表的数值.

 private static int roundUpToPowerOf2(int number) {
        // assert number >= 0 : "number must be non-negative";
        return number >= MAXIMUM_CAPACITY
                ? MAXIMUM_CAPACITY
                : (number > 1) ? Integer.highestOneBit((number - 1) << 1) : 1;
    }

1234567

hash函数

/**这是一个神奇的函数,用了很多的异或,移位等运算
对key的hashcode进一步进行计算以及二进制位的调整等来保证最终获取的存储位置尽量分布均匀*/
final int hash(Object k) {
        int h = hashSeed;
        if (0 != h && k instanceof String) {
            return sun.misc.Hashing.stringHash32((String) k);
        }

        h ^= k.hashCode();

        h ^= (h >>> 20) ^ (h >>> 12);
        return h ^ (h >>> 7) ^ (h >>> 4);
    }
12345678910111213

以上hash函数计算出的值,通过indexFor进一步处理来获取实际的存储位置

/**
     * 返回数组下标
     */
    static int indexFor(int h, int length) {
        return h & (length-1);
    }
123456

h&(length-1)保证获取的index一定在数组范围内,举个例子,默认容量16,length-1=15,h=18,转换成二进制计算为index=2。位运算对计算机来说,性能更高一些(HashMap中有大量位运算)

所以最终存储位置的确定流程是这样的:
HashMap如何确定元素位置

再来看看addEntry的实现:

void addEntry(int hash, K key, V value, int bucketIndex) {
        if ((size >= threshold) && (null != table[bucketIndex])) {
            resize(2 * table.length);//当size超过临界阈值threshold,并且即将发生哈希冲突时进行扩容
            hash = (null != key) ? hash(key) : 0;
            bucketIndex = indexFor(hash, table.length);
        }

        createEntry(hash, key, value, bucketIndex);
    }
123456789

通过以上代码能够得知,当发生哈希冲突并且size【hashmap中元素的个数】大于阈值的时候,需要进行数组扩容,扩容时,需要新建一个长度为之前数组2倍的新的数组,然后将当前的Entry数组中的元素全部传输过去,扩容后的新数组长度为之前的2倍,所以扩容相对来说是个耗资源的操作。

jdk7和jdk8扩容时的区别

jdk7进行扩容的时候,会重新计算存放对象的hash值,然后将数据在进行重新存放

但是在jdk8中,会根据原来的hash值,根据扩容后的新增的那个“二进制位”是否为1,假如为1,就像这个数据放在【目前的索引+原始数组容量】的位置,加入为0,则还是放在原来的哈希桶里

void transfer(Entry[] newTable, boolean rehash) {
        int newCapacity = newTable.length;
        for (Entry<K,V> e : table) {
            while(null != e) {
                Entry<K,V> next = e.next;
                //一般情况下,rehash都为false,当设置了对应的虚拟机参数时,满足条件后会返回true 
                //可以这么说,因为hashSeed不再为0了,所以需要从新hash一下
                if (rehash) {
                    e.hash = null == e.key ? 0 : hash(e.key);
                }
                int i = indexFor(e.hash, newCapacity);
                e.next = newTable[i];
                newTable[i] = e;
                e = next;
            }
        }
    }

对何时rehash为true的解读【何时rehash】

扩容时,执行transfer方法,会执行initHashSeedAsNeeded(newCapacity)方法,这时根据设置的虚拟机参数,当满足capacity大于设置的参数时,initHashSeedAsNeeded会返回true并且这时hashSeed不在为0,这时候需要重新计算hash值,然后重新分配数据

void resize(int newCapacity) {
        Entry[] oldTable = table;
        int oldCapacity = oldTable.length;
        if (oldCapacity == MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return;
        }

        Entry[] newTable = new Entry[newCapacity];
        transfer(newTable, initHashSeedAsNeeded(newCapacity)); //当第二个参数为true时,会重新计算hash值这时候
    														   //计算hash值时会加上非0的hashSeed的值
        table = newTable;
        threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);
    }

  final boolean initHashSeedAsNeeded(int capacity) {
        boolean currentAltHashing = hashSeed != 0;
        boolean useAltHashing = sun.misc.VM.isBooted() &&
                (capacity >= Holder.ALTERNATIVE_HASHING_THRESHOLD);//这个常数值通过虚拟机参数获得
        boolean switching = currentAltHashing ^ useAltHashing;
       //设置了虚拟机参数后,当容量大于次参数时,就会将hashSeed赋值,使其变成非0值
        if (switching) {
            hashSeed = useAltHashing
                ? sun.misc.Hashing.randomHashSeed(this)
                : 0;
        }
        return switching;
    }

因为在jdk7中采用的是头插法,所以在进行扩容之后链表中的数据就会反转顺序**【扩容的时候,是从老的hash表中的链表的第一个数据开始移动–>所以会反转顺序】**

三、为何HashMap的数组长度一定是2的次幂?

我们来继续看上面提到的resize方法

void resize(int newCapacity) {
        Entry[] oldTable = table;
        int oldCapacity = oldTable.length;
        if (oldCapacity == MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return;
        }

        Entry[] newTable = new Entry[newCapacity];
        transfer(newTable, initHashSeedAsNeeded(newCapacity));
        table = newTable;
        threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);
    }
12345678910111213

如果数组进行扩容,数组长度发生变化,而存储位置 index = h&(length-1),index也可能会发生变化,需要重新计算index,我们先来看看transfer这个方法

void transfer(Entry[] newTable, boolean rehash) {
        int newCapacity = newTable.length;
     //for循环中的代码,逐个遍历链表,重新计算索引位置,将老数组数据复制到新数组中去(数组不存储实际数据,所以仅仅是拷贝引用而已)
        for (Entry<K,V> e : table) {
            while(null != e) {
                Entry<K,V> next = e.next;
                if (rehash) {
                    e.hash = null == e.key ? 0 : hash(e.key);
                }
                int i = indexFor(e.hash, newCapacity);
                //将当前entry的next链指向新的索引位置,newTable[i]有可能为空,有可能也是个entry链,如果是entry链,直接在链表头部插入。
                e.next = newTable[i];
                newTable[i] = e;
                e = next;
            }
        }
    }
1234567891011121314151617

这个方法将老数组中的数据逐个链表地遍历,扔到新的扩容后的数组中,我们的数组索引位置的计算是通过 对key值的hashcode进行hash扰乱运算后,再通过和 length-1进行位运算得到最终数组索引位置。

HashMap的数组长度一定保持2的次幂,比如16的二进制表示为 10000,那么length-1就是15,二进制为01111,同理扩容后的数组长度为32,二进制表示为100000,length-1为31,二进制表示为011111。从下图可以我们也能看到这样会保证低位全为1,而扩容后只有一位差异,也就是多出了最左位的1,这样在通过 h&(length-1)的时候,只要h对应的最左边的那一个差异位为0,就能保证得到的新的数组索引和老数组索引一致(大大减少了之前已经散列良好的老数组的数据位置重新调换),个人理解。

在这里插入图片描述

还有,数组长度保持2的次幂,length-1的低位都为1,会使得获得的数组索引index更加均匀

在这里插入图片描述
我们看到,上面的&运算,高位是不会对结果产生影响的(hash函数采用各种位运算可能也是为了使得低位更加散列),我们只关注低位bit,如果低位全部为1,那么对于h低位部分来说,任何一位的变化都会对结果产生影响,也就是说,要得到index=21这个存储位置,h的低位只有这一种组合。这也是数组长度设计为必须为2的次幂的原因。
在这里插入图片描述
如果不是2的次幂,也就是低位不是全为1此时,要使得index=21,h的低位部分不再具有唯一性了,哈希冲突的几率会变的更大,同时,index对应的这个bit位无论如何不会等于1了,而对应的那些数组位置也就被白白浪费了。

get方法

 public V get(Object key) {
     //如果key为null,则直接去table[0]处去检索即可。
        if (key == null)
            return getForNullKey();
        Entry<K,V> entry = getEntry(key);
        return null == entry ? null : entry.getValue();
 }
1234567

get方法通过key值返回对应value,如果key为null,直接去table[0]处检索。我们再看一下getEntry这个方法

final Entry<K,V> getEntry(Object key) {
            
        if (size == 0) {
            return null;
        }
        //通过key的hashcode值计算hash值
        int hash = (key == null) ? 0 : hash(key);
        //indexFor (hash&length-1) 获取最终数组索引,然后遍历链表,通过equals方法比对找出对应记录
        for (Entry<K,V> e = table[indexFor(hash, table.length)];
             e != null;
             e = e.next) {
            Object k;
            if (e.hash == hash && 
                ((k = e.key) == key || (key != null && key.equals(k))))
                return e;
        }
        return null;
    }    
123456789101112131415161718

可以看出,get方法的实现相对简单,key(hashcode)–>hash–>indexFor–>最终索引位置,找到对应位置table[i],再查看是否有链表,遍历链表,通过key的equals方法比对查找对应的记录。要注意的是,有人觉得上面在定位到数组位置之后然后遍历链表的时候,e.hash == hash这个判断没必要,仅通过equals判断就可以。其实不然,试想一下,如果传入的key对象重写了equals方法却没有重写hashCode,而恰巧此对象定位到这个数组位置,如果仅仅用equals判断可能是相等的,但其hashCode和当前对象不一致,这种情况,根据Object的hashCode的约定,不能返回当前对象,而应该返回null,后面的例子会做出进一步解释。

四、重写equals方法需同时重写hashCode方法

最后我们再聊聊老生常谈的一个问题,各种资料上都会提到,“重写equals时也要同时覆盖hashcode”,我们举个小例子来看看,如果重写了equals而不重写hashcode会发生什么样的问题

public class MyTest {
    private static class Person{
        int idCard;
        String name;

        public Person(int idCard, String name) {
            this.idCard = idCard;
            this.name = name;
        }
        @Override
        public boolean equals(Object o) {
            if (this == o) {
                return true;
            }
            if (o == null || getClass() != o.getClass()){
                return false;
            }
            Person person = (Person) o;
            //两个对象是否等值,通过idCard来确定
            return this.idCard == person.idCard;
        }

    }
    public static void main(String []args){
        HashMap<Person,String> map = new HashMap<Person, String>();
        Person person = new Person(1234,"乔峰");
        //put到hashmap中去
        map.put(person,"天龙八部");
        //get取出,从逻辑上讲应该能输出“天龙八部”
        System.out.println("结果:"+map.get(new Person(1234,"萧峰")));
    }
}

实际输出结果:null
1234567891011121314151617181920212223242526272829303132333435

如果我们已经对HashMap的原理有了一定了解,这个结果就不难理解了。尽管我们在进行get和put操作的时候,使用的key从逻辑上讲是等值的(通过equals比较是相等的),但由于没有重写hashCode方法,所以put操作时,key(hashcode1)–>hash–>indexFor–>最终索引位置 ,而通过key取出value的时候 key(hashcode1)–>hash–>indexFor–>最终索引位置,由于hashcode1不等于hashcode2,导致没有定位到一个数组位置而返回逻辑上错误的值null(也有可能碰巧定位到一个数组位置,但是也会判断其entry的hash值是否相等,上面get方法中有提到。)

所以,在重写equals的方法的时候,必须注意重写hashCode方法,同时还要保证通过equals判断相等的两个对象,调用hashCode方法要返回同样的整数值。而如果equals判断不相等的两个对象,其hashCode可以相同(只不过会发生哈希冲突,应尽量避免)。

五、JDK1.8中HashMap的性能优化

假如一个数组槽位上链上数据过多(即拉链过长的情况)导致性能下降该怎么办?
JDK1.8在JDK1.7的基础上针对增加了红黑树来进行优化。即当链表超过8时,链表就转换为红黑树,利用红黑树快速增删改查的特点提高HashMap的性能,其中会用到红黑树的插入、删除、查找等算法。
关于这方面的探讨我们以后的文章再做说明。

当链表的长度大于8的时候执行下面的转成红黑树的方法,但是也不是一定会转成红黑树,而是目前数组的长度小于MIN_TREEIFY_CAPACITY【默认为64】时,对数组进行扩容,从新分配链表元素,使得目前的链表变小,使链表元素更散列,当大于64的时候,才将链表转换成红黑树

final void treeifyBin(Node<K,V>[] tab, int hash) {
        int n, index; Node<K,V> e;
        if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
            resize();
        else if ((e = tab[index = (n - 1) & hash]) != null) {
            TreeNode<K,V> hd = null, tl = null;
            do {
                TreeNode<K,V> p = replacementTreeNode(e, null);
                if (tl == null)
                    hd = p;
                else {
                    p.prev = tl;
                    tl.next = p;
                }
                tl = p;
            } while ((e = e.next) != null);
            if ((tab[index] = hd) != null)
                hd.treeify(tab);
        }
    }

附:HashMap put方法逻辑图(JDK1.8)

在这里插入图片描述

JDK1.7HashMap的死循环

问题的症状

从前我们的Java代码因为一些原因使用了HashMap这个东西,但是当时的程序是单线程的,一切都没有问题。后来,我们的程序性能有问题,所以需要变成多线程的,于是,变成多线程后到了线上,发现程序经常占了100%的CPU,查看堆栈,你会发现程序都Hang在了HashMap.get()这个方法上了,重启程序后问题消失。但是过段时间又会来。而且,这个问题在测试环境里可能很难重现。

我们简单的看一下我们自己的代码,我们就知道HashMap被多个线程操作。而Java的文档说HashMap是非线程安全的,应该用ConcurrentHashMap。

但是在这里我们可以来研究一下原因。

Hash表数据结构

我需要简单地说一下HashMap这个经典的数据结构。

HashMap通常会用一个指针数组(假设为table[])来做分散所有的key,当一个key被加入时,会通过Hash算法通过key算出这个数组的下标i,然后就把这个插到table[i]中,如果有两个不同的key被算在了同一个i,那么就叫冲突,又叫碰撞,这样会在table[i]上形成一个链表。

我们知道,如果table[]的尺寸很小,比如只有2个,如果要放进10个keys的话,那么碰撞非常频繁,于是一个O(1)的查找算法,就变成了链表遍历,性能变成了O(n),这是Hash表的缺陷(可参看《Hash Collision DoS 问题》)。

所以,Hash表的尺寸和容量非常的重要。一般来说,Hash表这个容器当有数据要插入时,都会检查容量有没有超过设定的thredhold,如果超过,需要增大Hash表的尺寸,但是这样一来,整个Hash表里的无素都需要被重算一遍。这叫rehash,这个成本相当的大。

相信大家对这个基础知识已经很熟悉了。

HashMap的rehash源代码

下面,我们来看一下Java的HashMap的源代码。

Put一个Key,Value对到Hash表中:

public V put(K key, V value)

{......//算Hash值int hash = hash(key.hashCode());int i = indexFor(hash, table.length);//如果该key已被插入,则替换掉旧的value (链接操作)for (Entry<K,V> e = table[i]; e != null; e = e.next) {

​        Object k;if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {

​            V oldValue = e.value;

​            e.value = value;

​            e.recordAccess(this);return oldValue;}}

​    modCount++;//该key不存在,需要增加一个结点addEntry(hash, key, value, i);return null;

}

检查容量是否超标

void addEntry(int hash, K key, V value, int bucketIndex)

{

​    Entry<K,V> e = table[bucketIndex];

​    table[bucketIndex] = new Entry<K,V>(hash, key, value, e);//查看当前的size是否超过了我们设定的阈值threshold,如果超过,需要resizeif (size++ >= threshold)resize(2 * table.length);

} 


新建一个更大尺寸的hash表,然后把数据从老的Hash表中迁移到新的Hash表中。

void resize(int newCapacity)

{

​    Entry[] oldTable = table;int oldCapacity = oldTable.length;......//创建一个新的Hash Table

​    Entry[] newTable = new Entry[newCapacity];//将Old Hash Table上的数据迁移到New Hash Table上transfer(newTable);

​    table = newTable;

​    threshold = (int)(newCapacity * loadFactor);

}

迁移的源代码,注意高亮处:

void transfer(Entry[] newTable)

{

​    Entry[] src = table;int newCapacity = newTable.length;//下面这段代码的意思是://  从OldTable里摘一个元素出来,然后放到NewTable中for (int j = 0; j < src.length; j++) {

​        Entry<K,V> e = src[j];if (e != null) {

​            src[j] = null;do {

​                Entry<K,V> next = e.next;int i = indexFor(e.hash, newCapacity);

​                e.next = newTable[i];

​                newTable[i] = e;

​                e = next;} while (e != null);}}

} 

好了,这个代码算是比较正常的。而且没有什么问题。

正常的ReHash的过程

画了个图做了个演示。

  • 我假设了我们的hash算法就是简单的用key mod 一下表的大小(也就是数组的长度)。

  • 最上面的是old hash 表,其中的Hash表的size=2, 所以key = 3, 7, 5,在mod 2以后都冲突在table[1]这里了。

  • 接下来的三个步骤是Hash表 resize成4,然后所有的 重新rehash的过程

img

并发下的Rehash

**1)假设我们有两个线程。**我用红色和浅蓝色标注了一下。

我们再回头看一下我们的 transfer代码中的这个细节:

do {

​    Entry<K,V> next = e.next; // <--假设线程一执行到这里就被调度挂起了int i = indexFor(e.hash, newCapacity);

​    e.next = newTable[i];

​    newTable[i] = e;

​    e = next;

} while (e != null);

而我们的线程二执行完成了。于是我们有下面的这个样子。

HashMap&ConcurrentHashMap总结_第1张图片

注意,因为Thread1的 e 指向了key(3),而next指向了key(7),其在线程二rehash后,指向了线程二重组后的链表。我们可以看到链表的顺序被反转后。

2)线程一被调度回来执行。

  • 先是执行 newTalbe[i] = e;
  • 然后是e = next,导致了e指向了key(7),
  • 而下一次循环的next = e.next导致了next指向了key(3)

HashMap&ConcurrentHashMap总结_第2张图片

3)一切安好。

线程一接着工作。把key(7)摘下来,放到newTable[i]的第一个,然后把e和next往下移

HashMap&ConcurrentHashMap总结_第3张图片

4)环形链接出现。

e.next = newTable[i] 导致 key(3).next 指向了 key(7)

注意:此时的key(7).next 已经指向了key(3), 环形链表就这样出现了。

HashMap&ConcurrentHashMap总结_第4张图片

于是,当我们的线程一调用到,HashTable.get(11)时,悲剧就出现了——Infinite Loop。

其它

有人把这个问题报给了Sun,不过Sun不认为这个是一个问题。因为HashMap本来就不支持并发。要并发就用ConcurrentHashmap

http://bugs.sun.com/bugdatabase/view_bug.do?bug_id=6423457

我在这里把这个事情记录下来,只是为了让大家了解并体会一下并发环境下的危险。

参考:http://mailinator.blogspot.com/2009/06/beautiful-race-condition.html

ConcurrentHashMap底层实现原理(JDK1.7 & 1.8)

前言

我们都知道HashMap在多线程情况下,在put的时候,插入的元素超过了容量(由负载因子决定)的范围就会触发扩容操作,就是rehash,这个会重新将原数组的内容重新hash到新的扩容数组中,在多线程的环境下,存在同时其他的元素也在进行put操作,如果hash值相同,可能出现同时在同一数组下用链表表示,造成闭环,导致在get时会出现死循环,所以HashMap是线程不安全的。

我们来了解另一个键值存储集合HashTable,它是线程安全的,它在所有涉及到多线程操作的都加上了synchronized关键字来锁住整个table,这就意味着所有的线程都在竞争一把锁,在多线程的环境下,它是安全的,但是无疑是效率低下的。

其实HashTable有很多的优化空间,锁住整个table这么粗暴的方法可以变相的柔和点,比如在多线程的环境下,对不同的数据集进行操作时其实根本就不需要去竞争一个锁,因为他们不同hash值,不会因为rehash造成线程不安全,所以互不影响,这就是锁分离技术,将锁的粒度降低,利用多个锁来控制多个小的table

ConcurrentHashMap

JDK1.7的实现

在JDK1.7版本中,ConcurrentHashMap的数据结构是由一个Segment数组和多个HashEntry组成,如下图所示:

HashMap&ConcurrentHashMap总结_第5张图片

image

Segment数组的意义就是将一个大的table分割成多个小的table来进行加锁,也就是上面的提到的锁分离技术,而每一个Segment元素存储的是HashEntry数组+链表,这个和HashMap的数据存储结构一样

初始化

ConcurrentHashMap的初始化是会通过位与运算来初始化Segment的大小,用size来表示,如下所示

        int size = 1;
        while (size < concurrencyLevel) {
            ++a;
            size <<= 1;
        }

如上所示,因为size用位于运算来计算( size <<=1 ),所以Segment的大小取值都是以2的N次方,无关concurrencyLevel的取值,当然concurrencyLevel最大只能用16位的二进制来表示,即65536,换句话说,Segment的大小最多65536个,没有指定concurrencyLevel元素初始化,Segment的大小size默认为16

每一个Segment元素下的HashEntry的初始化也是按照位于运算来计算,用cap来表示,如下所示

int cap = 1;
while (cap < c)
     cap <<= 1;

如上所示,HashEntry大小的计算也是2的N次方(cap <<=1), cap的初始值为1,所以HashEntry最小的容量为2

put操作

对于ConcurrentHashMap的数据插入,这里要进行两次Hash去定位数据的存储位置

static class  Segment extends  ReentrantLock implements  Serializable {
}

从上Segment的继承体系可以看出,Segment实现了ReentrantLock,也就带有锁的功能,当执行put操作时,会进行第一次key的hash来定位Segment的位置,如果该Segment还没有初始化,即通过CAS操作进行赋值,然后进行第二次hash操作,找到相应的HashEntry的位置,这里会利用继承过来的锁的特性,在将数据插入指定的HashEntry位置时(链表的尾端),会通过继承ReentrantLock的tryLock()方法尝试去获取锁,如果获取成功就直接插入相应的位置,如果已经有线程获取该Segment的锁,那当前线程会以自旋的方式去继续的调用tryLock()方法去获取锁,超过指定次数就挂起,等待唤醒

get操作

get操作没有加锁,但是concurrenHashMap的HashEntry节点中的value属性使volatile修饰的

ConcurrentHashMap的get操作跟HashMap类似,只是ConcurrentHashMap第一次需要经过一次hash定位到Segment的位置,然后再hash定位到指定的HashEntry,遍历该HashEntry下的链表进行对比,成功就返回,不成功就返回null

 static final class HashEntry<K,V> {
        final int hash;
        final K key;
        volatile V value;
        volatile HashEntry<K,V> next;
     .....
 }

size操作

计算ConcurrentHashMap的元素大小是一个有趣的问题,因为他是并发操作的,就是在你计算size的时候,他还在并发的插入数据,可能会导致你计算出来的size和你实际的size有相差(在你return size的时候,插入了多个数据),要解决这个问题,JDK1.7版本用两种方案

  1. 第一种方案他会使用不加锁的模式去尝试多次计算ConcurrentHashMap的size,最多三次,比较前后两次计算的结果,结果一致就认为当前没有元素加入,计算的结果是准确的
  2. 第二种方案是如果第一种方案不符合,他就会给每个Segment加上锁,然后计算ConcurrentHashMap的size返回
 for (; ; ) {

            if (retries++ == RETRIES_BEFORE_LOCK) {
                for (int j = 0; j < segments.length; ++j) 
                    ensureSegment(j).lock();  // force creation  
            }

            sum = 0L;

            size = 0;

            overflow = false;

            for (int j = 0; j < segments.length; ++j) {
                Segment<K, V> seg = segmentAt(segments, j);
                if (seg != null) {
                    sum += seg.modCount;
                    int c = seg.count;
                    if (c < 0 || (size += c) < 0)
                        overflow = true;
                }
            }
            if (sum == last) break;
            last = sum;
        }
    }  

 finally

    {

        if (retries > RETRIES_BEFORE_LOCK) {
            for (int j = 0; j < segments.length; ++j)
                segmentAt(segments, j).unlock();
        }
    }

JDK1.8的实现

JDK1.8的实现已经摒弃了Segment的概念,而是直接用Node数组+链表+红黑树的数据结构来实现,并发控制使用Synchronized和CAS来操作,整个看起来就像是优化过且线程安全的HashMap,虽然在JDK1.8中还能看到Segment的数据结构,但是已经简化了属性,只是为了兼容旧版本

HashMap&ConcurrentHashMap总结_第6张图片

说明:ConcurrentHashMap的数据结构(数组+链表+红黑树),桶中的结构可能是链表,也可能是红黑树,红黑树是为了提高查找效率。

在深入JDK1.8的put和get实现之前要知道一些常量设计和数据结构,这些是构成ConcurrentHashMap实现结构的基础,下面看一下基本属性:

		// node数组最大容量:2^30=1073741824  

        private static final int MAXIMUM_CAPACITY = 1 << 30;

        // 默认初始值,必须是2的幂数  

        private static final int DEFAULT_CAPACITY = 16;

        //数组可能最大值,需要与toArray()相关方法关联  

        static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;

        //并发级别,遗留下来的,为兼容以前的版本  

        private static final int DEFAULT_CONCURRENCY_LEVEL = 16;

        // 负载因子  

        private static final float LOAD_FACTOR = 0 .75f;

        // 链表转红黑树阀值,> 8 链表转换为红黑树  

        static final int TREEIFY_THRESHOLD = 8;

        //树转链表阀值,小于等于6(tranfer时,lc、hc=0两个计数器分别++记录原bin、新binTreeNode数量,<=UNTREEIFY_THRESHOLD 则untreeify(lo))  

        static final int UNTREEIFY_THRESHOLD = 6;

        static final int MIN_TREEIFY_CAPACITY = 64;

        private static final int MIN_TRANSFER_STRIDE = 16;

        private static int RESIZE_STAMP_BITS = 16;

        // 2^15-1,help resize的最大线程数  

        private static final int MAX_RESIZERS = (1 << (32 - RESIZE_STAMP_BITS)) - 1;

        // 32-16=16,sizeCtl中记录size大小的偏移量  

        private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;

        // forwarding nodes的hash值  

        static final int MOVED = -1;

        // 树根节点的hash值  

        static final int TREEBIN = -2;

        // ReservationNode的hash值  

        static final int RESERVED = -3;

        // 可用处理器数量  

        static final int NCPU = Runtime.getRuntime().availableProcessors();

        //存放node的数组  

        transient volatile Node<K, V>[] table;

        /*控制标识符,用来控制table的初始化和扩容的操作,不同的值有不同的含义

         *当为负数时:-    1    代表正在初始化,-N代表有N-    1    个线程正在 进行扩容

         *当为    0    时:代表当时的table还没有被初始化

         *当为正数时:表示初始化或者下一次进行扩容的大小
         */

        private transient volatile int sizeCtl;

基本属性定义了ConcurrentHashMap的一些边界以及操作时的一些控制,下面看一些内部的一些结构组成,这些是整个ConcurrentHashMap整个数据结构的核心

Node

Node是ConcurrentHashMap存储结构的基本单元,继承于HashMap中的Entry,用于存储数据,源代码如下

static class Node<K, V> implements Map.Entry<K, V> {

            //链表的数据结构  

            final int hash;

            final K key;

            //val和next都会在扩容时发生变化,所以加上volatile来保持可见性和禁止重排序  

            volatile V val;

            volatile Node<K, V> next;

            Node(int hash, K key, V val, Node<K, V> next) {

                this.hash = hash;

                this.key = key;

                this.val = val;

                this.next = next;

            }

            public final K getKey() {
                return key;
            }

            public final V getValue() {
                return val;
            }

            public final int hashCode() {
                return key.hashCode() ^ val.hashCode();
            }

            public final String toString() {
                return key + "=" + val;
            }

            //不允许更新value   

            public final V setValue(V value) {

                throw new UnsupportedOperationException();

            }

            public final boolean equals(Object o) {

                Object k, v, u;
                Map.Entry<?, ?> e;

                return ((o instanceof Map.Entry) &&

                        (k = (e = (Map.Entry<?, ?>) o).getKey()) != null &&

                        (v = e.getValue()) != null &&

                        (k == key || k.equals(key)) &&

                        (v == (u = val) || v.equals(u)));

            }

            //用于map中的get()方法,子类重写  

            Node<K, V> find(int h, Object k) {

                Node<K, V> e = this;

                if (k != null) {

                    do {

                        K ek;

                        if (e.hash == h &&

                                ((ek = e.key) == k || (ek != null && k.equals(ek))))

                            return e;

                    } while ((e = e.next) != null);

                }

                return null;

            }

        }

Node数据结构很简单,从上可知,就是一个链表,但是只允许对数据进行查找,不允许进行修改

TreeNode

TreeNode继承与Node,但是数据结构换成了二叉树结构,它是红黑树的数据的存储结构,用于红黑树中存储数据,当链表的节点数大于8时会转换成红黑树的结构,他就是通过TreeNode作为存储结构代替Node来转换成黑红树源代码如下

static final class TreeNode<K, V> extends Node<K, V> {

            //树形结构的属性定义  

            TreeNode<K, V> parent;  // red-black tree links  

            TreeNode<K, V> left;

            TreeNode<K, V> right;

            TreeNode<K, V> prev;  // needed to unlink next upon deletion  

            boolean red;  //标志红黑树的红节点  

            TreeNode(int hash, K key, V val, Node<K, V> next,

                     TreeNode<K, V> parent) {

                super(hash, key, val, next);

                this.parent = parent;

            }

            Node<K, V> find(int h, Object k) {

                return findTreeNode(h, k, null);

            }

            //根据key查找 从根节点开始找出相应的TreeNode,  

            final TreeNode<K, V> findTreeNode(int h, Object k, Class<?> kc) {

                if (k != null) {

                    TreeNode<K, V> p = this;

                    do {

                        int ph, dir;
                        K pk;
                        TreeNode<K, V> q;

                        TreeNode<K, V> pl = p.left, pr = p.right;

                        if ((ph = p.hash) > h)

                            p = pl;

                        else if (ph < h)

                            p = pr;

                        else if ((pk = p.key) == k || (pk != null && k.equals(pk)))

                            return p;

                        else if (pl == null)

                            p = pr;

                        else if (pr == null)

                            p = pl;

                        else if ((kc != null ||

                                (kc = comparableClassFor(k)) != null) &&

                                (dir = compareComparables(kc, k, pk)) != 0)

                            p = (dir < 0) ? pl : pr;

                        else if ((q = pr.findTreeNode(h, k, kc)) != null)

                            return q;

                        else

                            p = pl;

                    } while (p != null);

                }

                return null;

            }

        }

TreeBin

TreeBin从字面含义中可以理解为存储树形结构的容器,而树形结构就是指TreeNode,所以TreeBin就是封装TreeNode的容器,它提供转换黑红树的一些条件和锁的控制,部分源码结构如下

static final class TreeBin<K, V> extends Node<K, V> {

            //指向TreeNode列表和根节点

            TreeNode<K, V> root;

            volatile TreeNode<K, V> first;

            volatile Thread waiter;

            volatile int lockState;

            // 读写锁状态

            static final int WRITER = 1;  // 获取写锁的状态

            static final int WAITER = 2;  // 等待写锁的状态

            static final int READER = 4;  // 增加数据时读锁的状态

            /**
             * 初始化红黑树

             */

            TreeBin(TreeNode<K, V> b) {

                super(TREEBIN, null, null, null);

                this.first = b;

                TreeNode<K, V> r = null;

                for (TreeNode<K, V> x = b, next; x != null; x = next) {

                    next = (TreeNode<K, V>) x.next;

                    x.left = x.right = null;

                    if (r == null) {

                        x.parent = null;

                        x.red = false;

                        r = x;

                    } else {

                        K k = x.key;

                        int h = x.hash;

                        Class<?> kc = null;

                        for (TreeNode<K, V> p = r; ; ) {

                            int dir, ph;

                            K pk = p.key;

                            if ((ph = p.hash) > h)

                                dir = -1;

                            else if (ph < h)

                                dir = 1;

                            else if ((kc == null &&

                                    (kc = comparableClassFor(k)) == null) ||

                                    (dir = compareComparables(kc, k, pk)) == 0)

                                dir = tieBreakOrder(k, pk);

                            TreeNode<K, V> xp = p;

                            if ((p = (dir <= 0) ? p.left : p.right) == null) {

                                x.parent = xp;

                                if (dir <= 0)

                                    xp.left = x;

                                else

                                    xp.right = x;

                                r = balanceInsertion(r, x);

                                break;

                            }

                        }

                    }

                }

                this.root = r;

                assert checkInvariants(root);

            }

  ......

        }

介绍了ConcurrentHashMap主要的属性与内部的数据结构,现在通过一个简单的例子以debug的视角看看ConcurrentHashMap的具体操作细节

public class TestConcurrentHashMap {

            public static void main(String[] args) {

                ConcurrentHashMap<String, String> map = new ConcurrentHashMap();  //初始化ConcurrentHashMap  

                //新增个人信息  

                map.put("id", "1");

                map.put("name", "andy");

                map.put("sex", "男");

                //获取姓名  

                String name = map.get("name");

                Assert.assertEquals(name, "andy");

                //计算大小  

                int size = map.size();

                Assert.assertEquals(size, 3);

            }

        }

我们先通过 new ConcurrentHashMap() 来进行初始化

  public  ConcurrentHashMap() {  

  }  

由上你会发现ConcurrentHashMap的初始化其实是一个空实现,并没有做任何事,这里后面会讲到,这也是和其他的集合类有区别的地方,初始化操作并不是在构造函数实现的,而是在put操作中实现,当然ConcurrentHashMap还提供了其他的构造函数,有指定容量大小或者指定负载因子,跟HashMap一样,这里就不做介绍了

put操作

在上面的例子中我们新增个人信息会调用put方法,我们来看下

public V put (K key, V value){

            return putVal(key, value, false);

        }

        /** Implementation for put and putIfAbsent */

        final V putVal (K key, V value,boolean onlyIfAbsent){

            if (key == null || value == null) throw new NullPointerException();

            int hash = spread(key.hashCode());  //两次hash,减少hash冲突,可以均匀分布  

            int binCount = 0;

            for (Node<K, V>[] tab = table; ; ) {  //对这个table进行迭代  

                Node<K, V> f;
                int n, i, fh;

                //这里就是上面构造方法没有进行初始化,在这里进行判断,为null就调用initTable进行初始化,属于懒汉模式初始化  

                if (tab == null || (n = tab.length) == 0)

                    tab = initTable();

                else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {    //如果i位置没有数据,就直接无锁插入  

                    if (casTabAt(tab, i, null,

                            new Node<K, V>(hash, key, value, null)))

                        break;  // no lock when adding to empty bin  

                } else if ((fh = f.hash) == MOVED)    //如果在进行扩容,则先进行扩容操作  

                    tab = helpTransfer(tab, f);

                else {

                    V oldVal = null;

                    //如果以上条件都不满足,那就要进行加锁操作,也就是存在hash冲突,锁住链表或者红黑树的头结点  

                    synchronized (f) {

                        if (tabAt(tab, i) == f) {

                            if (fh >= 0) {  //表示该节点是链表结构  

                                binCount = 1;

                                for (Node<K, V> e = f; ; ++binCount) {

                                    K ek;

                                    //这里涉及到相同的key进行put就会覆盖原先的value  

                                    if (e.hash == hash &&

                                            ((ek = e.key) == key ||

                                                    (ek != null && key.equals(ek)))) {

                                        oldVal = e.val;

                                        if (!onlyIfAbsent)

                                            e.val = value;

                                        break;

                                    }

                                    Node<K, V> pred = e;

                                    if ((e = e.next) == null) {  //插入链表尾部  

                                        pred.next = new Node<K, V>(hash, key,

                                                value, null);

                                        break;

                                    }

                                }

                            } else if (f instanceof TreeBin) {    //红黑树结构  

                                Node<K, V> p;

                                binCount = 2;

                                //红黑树结构旋转插入  

                                if ((p = ((TreeBin<K, V>) f).putTreeVal(hash, key,

                                        value)) != null) {

                                    oldVal = p.val;

                                    if (!onlyIfAbsent)

                                        p.val = value;

                                }

                            }

                        }

                    }

                    if (binCount != 0) {  //如果链表的长度大于8时就会进行红黑树的转换  

                        if (binCount >= TREEIFY_THRESHOLD)

                            treeifyBin(tab, i);

                        if (oldVal != null)

                            return oldVal;

                        break;

                    }

                }

            }

            addCount(1L, binCount);    //统计size,并且检查是否需要扩容  

            return null;

        }

这个put的过程很清晰,对当前的table进行无条件自循环直到put成功,可以分成以下六步流程来概述

  1. 如果没有初始化就先调用initTable()方法来进行初始化过程
  2. 如果没有hash冲突就直接CAS插入
  3. 如果还在进行扩容操作就先进行扩容
  4. 如果存在hash冲突,就加锁来保证线程安全,这里有两种情况,一种是链表形式就直接遍历到尾端插入,一种是红黑树就按照红黑树结构插入,
  5. 最后一个如果Hash冲突时会形成Node链表,在链表长度超过8,Node数组超过64时会将链表结构转换为红黑树的结构,break再一次进入循环
  6. 如果添加成功就调用addCount()方法统计size,并且检查是否需要扩容

现在我们来对每一步的细节进行源码分析,在第一步中,符合条件会进行初始化操作,我们来看看initTable()方法

 /**
         * Initializes table, using the size recorded in sizeCtl.  

         */

        private final Node<K, V>[] initTable () {

            Node<K, V>[] tab;
            int sc;

            while ((tab = table) == null || tab.length == 0) {    //空的table才能进入初始化操作  

                if ((sc = sizeCtl) < 0)  //sizeCtl<0表示其他线程已经在初始化了或者扩容了,挂起当前线程  

                    Thread.yield();  // lost initialization race; just spin  

                else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {    //CAS操作SIZECTL为-1,表示初始化状态  

                    try {

                        if ((tab = table) == null || tab.length == 0) {

                            int n = (sc > 0) ? sc : DEFAULT_CAPACITY;

                            @SuppressWarnings("unchecked")

                            Node<K, V>[] nt = (Node<K, V>[]) new Node<?, ?>[n];    //初始化  

                            table = tab = nt;

                            sc = n - (n >>> 2);    //记录下次扩容的大小  

                        }

                    } finally {

                        sizeCtl = sc;

                    }

                    break;

                }

            }

            return tab;

        }

在第二步中没有hash冲突就直接调用Unsafe的方法CAS插入该元素,进入第三步如果容器正在扩容,则会调用helpTransfer()方法帮助扩容,现在我们跟进helpTransfer()方法看看

        /**
         *帮助从旧的table的元素复制到新的table中  

         */

        final Node<K, V>[] helpTransfer (Node < K, V >[]tab, Node < K, V > f){

            Node<K, V>[] nextTab;
            int sc;

            if (tab != null && (f instanceof ForwardingNode) &&

                    (nextTab = ((ForwardingNode<K, V>) f).nextTable) != null) {  //新的table nextTba已经存在前提下才能帮助扩容  

                int rs = resizeStamp(tab.length);

                while (nextTab == nextTable && table == tab &&

                        (sc = sizeCtl) < 0) {

                    if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||

                            sc == rs + MAX_RESIZERS || transferIndex <= 0)

                        break;

                    if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {

                        transfer(tab, nextTab);    //调用扩容方法  

                        break;

                    }

                }

                return nextTab;

            }

            return table;

        }

其实helpTransfer()方法的目的就是调用多个工作线程一起帮助进行扩容,这样的效率就会更高,而不是只有检查到要扩容的那个线程进行扩容操作,其他线程就要等待扩容操作完成才能工作
既然这里涉及到扩容的操作,我们也一起来看看扩容方法transfer()

private final void transfer (Node < K, V >[]tab, Node < K, V >[]nextTab){

            int n = tab.length, stride;

            // 每核处理的量小于16,则强制赋值16  

            if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)

                stride = MIN_TRANSFER_STRIDE;  // subdivide range  

            if (nextTab == null) {  // initiating  

                try {

                    @SuppressWarnings("unchecked")

                    Node<K, V>[] nt = (Node<K, V>[]) new Node<?, ?>[n << 1];  //构建一个nextTable对象,其容量为原来容量的两倍  

                    nextTab = nt;

                } catch (Throwable ex) {  // try to cope with OOME  

                    sizeCtl = Integer.MAX_VALUE;

                    return;

                }

                nextTable = nextTab;

                transferIndex = n;

            }

            int nextn = nextTab.length;

            // 连接点指针,用于标志位(fwd的hash值为-1,fwd.nextTable=nextTab)  

            ForwardingNode<K, V> fwd = new ForwardingNode<K, V>(nextTab);

            // 当advance == true时,表明该节点已经处理过了  

            boolean advance = true;

            boolean finishing = false;  // to ensure sweep before committing nextTab  

            for (int i = 0, bound = 0; ; ) {

                Node<K, V> f;
                int fh;

                // 控制 --i ,遍历原hash表中的节点  

                while (advance) {

                    int nextIndex, nextBound;

                    if (--i >= bound || finishing)

                        advance = false;

                    else if ((nextIndex = transferIndex) <= 0) {

                        i = -1;

                        advance = false;

                    }

                    // 用CAS计算得到的transferIndex  

                    else if (U.compareAndSwapInt

                            (this, TRANSFERINDEX, nextIndex,

                                    nextBound = (nextIndex > stride ?

                                            nextIndex - stride : 0))) {

                        bound = nextBound;

                        i = nextIndex - 1;

                        advance = false;

                    }

                }

                if (i < 0 || i >= n || i + n >= nextn) {

                    int sc;

                    // 已经完成所有节点复制了  

                    if (finishing) {

                        nextTable = null;

                        table = nextTab;  // table 指向nextTable  

                        sizeCtl = (n << 1) - (n >>> 1);  // sizeCtl阈值为原来的1.5倍  

                        return;  // 跳出死循环,  

                    }

                    // CAS 更扩容阈值,在这里面sizectl值减一,说明新加入一个线程参与到扩容操作  

                    if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {

                        if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)

                            return;

                        finishing = advance = true;

                        i = n;  // recheck before commit  

                    }

                }

                // 遍历的节点为null,则放入到ForwardingNode 指针节点  

                else if ((f = tabAt(tab, i)) == null)

                    advance = casTabAt(tab, i, null, fwd);

                    // f.hash == -1 表示遍历到了ForwardingNode节点,意味着该节点已经处理过了  

                    // 这里是控制并发扩容的核心  

                else if ((fh = f.hash) == MOVED)

                    advance = true;  // already processed  

                else {

                    // 节点加锁  

                    synchronized (f) {

                        // 节点复制工作  

                        if (tabAt(tab, i) == f) {

                            Node<K, V> ln, hn;

                            // fh >= 0 ,表示为链表节点  

                            if (fh >= 0) {

                                // 构造两个链表  一个是原链表  另一个是原链表的反序排列  

                                int runBit = fh & n;

                                Node<K, V> lastRun = f;

                                for (Node<K, V> p = f.next; p != null; p = p.next) {

                                    int b = p.hash & n;

                                    if (b != runBit) {

                                        runBit = b;

                                        lastRun = p;

                                    }

                                }

                                if (runBit == 0) {

                                    ln = lastRun;

                                    hn = null;

                                } else {

                                    hn = lastRun;

                                    ln = null;

                                }

                                for (Node<K, V> p = f; p != lastRun; p = p.next) {

                                    int ph = p.hash;
                                    K pk = p.key;
                                    V pv = p.val;

                                    if ((ph & n) == 0)

                                        ln = new Node<K, V>(ph, pk, pv, ln);

                                    else

                                        hn = new Node<K, V>(ph, pk, pv, hn);

                                }

                                // 在nextTable i 位置处插上链表  

                                setTabAt(nextTab, i, ln);

                                // 在nextTable i + n 位置处插上链表  

                                setTabAt(nextTab, i + n, hn);

                                // 在table i 位置处插上ForwardingNode 表示该节点已经处理过了  

                                setTabAt(tab, i, fwd);

                                // advance = true 可以执行--i动作,遍历节点  

                                advance = true;

                            }

                            // 如果是TreeBin,则按照红黑树进行处理,处理逻辑与上面一致  

                            else if (f instanceof TreeBin) {

                                TreeBin<K, V> t = (TreeBin<K, V>) f;

                                TreeNode<K, V> lo = null, loTail = null;

                                TreeNode<K, V> hi = null, hiTail = null;

                                int lc = 0, hc = 0;

                                for (Node<K, V> e = t.first; e != null; e = e.next) {

                                    int h = e.hash;

                                    TreeNode<K, V> p = new TreeNode<K, V>

                                            (h, e.key, e.val, null, null);

                                    if ((h & n) == 0) {

                                        if ((p.prev = loTail) == null)

                                            lo = p;

                                        else

                                            loTail.next = p;

                                        loTail = p;

                                        ++lc;

                                    } else {

                                        if ((p.prev = hiTail) == null)

                                            hi = p;

                                        else

                                            hiTail.next = p;

                                        hiTail = p;

                                        ++hc;

                                    }

                                }

                                // 扩容后树节点个数若<=6,将树转链表  

                                ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :

                                        (hc != 0) ? new TreeBin<K, V>(lo) : t;

                                hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :

                                        (lc != 0) ? new TreeBin<K, V>(hi) : t;

                                setTabAt(nextTab, i, ln);

                                setTabAt(nextTab, i + n, hn);

                                setTabAt(tab, i, fwd);

                                advance = true;

                            }

                        }

                    }

                }

            }

        }

扩容过程有点复杂,这里主要涉及到多线程并发扩容,ForwardingNode的作用就是支持扩容操作,将已处理的节点和空节点置为ForwardingNode,并发处理时多个线程经过ForwardingNode就表示已经遍历了,就往后遍历,下图是多线程合作扩容的过程:

HashMap&ConcurrentHashMap总结_第7张图片

介绍完扩容过程,我们再次回到put流程,在第四步中是向链表或者红黑树里加节点,到第五步,会调用treeifyBin()方法进行链表转红黑树的过程

 private final void treeifyBin (Node < K, V >[]tab,int index){

            Node<K, V> b;
            int n, sc;

            if (tab != null) {

                //如果整个table的数量小于64,就扩容至原来的一倍,不转红黑树了  

                //因为这个阈值扩容可以减少hash冲突,不必要去转红黑树  

                if ((n = tab.length) < MIN_TREEIFY_CAPACITY)

                    tryPresize(n << 1);

                else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {

                    synchronized (b) {

                        if (tabAt(tab, index) == b) {

                            TreeNode<K, V> hd = null, tl = null;

                            for (Node<K, V> e = b; e != null; e = e.next) {

                                //封装成TreeNode  

                                TreeNode<K, V> p =

                                        new TreeNode<K, V>(e.hash, e.key, e.val,

                                                null, null);

                                if ((p.prev = tl) == null)

                                    hd = p;

                                else

                                    tl.next = p;

                                tl = p;

                            }

                            //通过TreeBin对象对TreeNode转换成红黑树  

                            setTabAt(tab, index, new TreeBin<K, V>(hd));

                        }

                    }

                }

            }

        }

到第六步表示已经数据加入成功了,现在调用addCount()方法计算ConcurrentHashMap的size,在原来的基础上加一,现在来看看addCount()方法

private final void addCount ( long x, int check){

            CounterCell[] as;
            long b, s;

            //更新baseCount,table的数量,counterCells表示元素个数的变化  

            if ((as = counterCells) != null ||

                    !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {

                CounterCell a;
                long v;
                int m;

                boolean uncontended = true;

                //如果多个线程都在执行,则CAS失败,执行fullAddCount,全部加入count  

                if (as == null || (m = as.length - 1) < 0 ||

                        (a = as[ThreadLocalRandom.getProbe() & m]) == null ||

                        !(uncontended =

                                U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {

                    fullAddCount(x, uncontended);

                    return;

                }

                if (check <= 1)

                    return;

                s = sumCount();

            }

            //check>=0表示需要进行扩容操作  

            if (check >= 0) {

                Node<K, V>[] tab, nt;
                int n, sc;

                while (s >= (long) (sc = sizeCtl) && (tab = table) != null &&

                        (n = tab.length) < MAXIMUM_CAPACITY) {

                    int rs = resizeStamp(n);

                    if (sc < 0) {

                        if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||

                                sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||

                                transferIndex <= 0)

                            break;

                        if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))

                            transfer(tab, nt);

                    }

                    //当前线程发起库哦哦让操作,nextTable=null  

                    else if (U.compareAndSwapInt(this, SIZECTL, sc,

                            (rs << RESIZE_STAMP_SHIFT) + 2))

                        transfer(tab, null);

                    s = sumCount();

                }

            }

        }

put的流程现在已经分析完了,你可以从中发现,他在并发处理中使用的是乐观锁,当有冲突的时候才进行并发处理,而且流程步骤很清晰,但是细节设计的很复杂,毕竟多线程的场景也复杂

get操作

我们现在要回到开始的例子中,我们对个人信息进行了新增之后,我们要获取所新增的信息,使用String name = map.get(“name”)获取新增的name信息,现在我们依旧用debug的方式来分析下ConcurrentHashMap的获取方法get()

  public V get (Object key){

            Node<K, V>[] tab;
            Node<K, V> e, p;
            int n, eh;
            K ek;

            int h = spread(key.hashCode());  //计算两次hash  

            if ((tab = table) != null && (n = tab.length) > 0 &&

                    (e = tabAt(tab, (n - 1) & h)) != null) {    //读取首节点的Node元素  

                if ((eh = e.hash) == h) {  //如果该节点就是首节点就返回  

                    if ((ek = e.key) == key || (ek != null && key.equals(ek)))

                        return e.val;

                }

                //hash值为负值表示正在扩容,这个时候查的是ForwardingNode的find方法来定位到nextTable来  

                //查找,查找到就返回  

                else if (eh < 0)

                    return (p = e.find(h, key)) != null ? p.val : null;

                while ((e = e.next) != null) {    //既不是首节点也不是ForwardingNode,那就往下遍历  

                    if (e.hash == h &&

                            ((ek = e.key) == key || (ek != null && key.equals(ek))))

                        return e.val;

                }

            }

            return null;

        }


ConcurrentHashMap的get操作的流程很简单,也很清晰,可以分为三个步骤来描述

  1. 计算hash值,定位到该table索引位置,如果是首节点符合就返回
  2. 如果遇到扩容的时候,会调用标志正在扩容节点ForwardingNode的find方法,查找该节点,匹配就返回
  3. 以上都不符合的话,就往下遍历节点,匹配就返回,否则最后就返回null

size操作

最后我们来看下例子中最后获取size的方式int size = map.size();,现在让我们看下size()方法

public int size () {

            long n = sumCount();

            return ((n < 0L) ? 0 :

                    (n > (long) Integer.MAX_VALUE) ? Integer.MAX_VALUE :

                            (int) n);

        }

        final long sumCount () {

            CounterCell[] as = counterCells;
            CounterCell a;  //变化的数量  

            long sum = baseCount;

            if (as != null) {

                for (int i = 0; i < as.length; ++i) {

                    if ((a = as[i]) != null)

                        sum += a.value;

                }

            }

            return sum;

        }

在JDK1.8版本中,对于size的计算,在扩容和addCount()方法就已经有处理了,JDK1.7是在调用size()方法才去计算,其实在并发集合中去计算size是没有多大的意义的,因为size是实时在变的,只能计算某一刻的大小,但是某一刻太快了,人的感知是一个时间段,所以并不是很精确

总结与思考

其实可以看出JDK1.8版本的ConcurrentHashMap的数据结构已经接近HashMap,相对而言,ConcurrentHashMap只是增加了同步的操作来控制并发,从JDK1.7版本的ReentrantLock+Segment+HashEntry+链表,到JDK1.8版本中synchronized+CAS+Node+链表+红黑树,相对而言,总结如下思考

  1. JDK1.8的实现降低锁的粒度,JDK1.7版本锁的粒度是基于Segment的,包含多个HashEntry,而JDK1.8锁的粒度就是Node(锁的是Node首节点)
  2. JDK1.8版本的数据结构变得更加简单,使得操作也更加清晰流畅,因为已经使用synchronized来进行同步,所以不需要分段锁的概念,也就不需要Segment这种数据结构了,由于粒度的降低,实现的复杂度也增加了
  3. JDK1.8使用红黑树来优化链表,基于长度很长的链表的遍历是一个很漫长的过程,而红黑树的遍历效率是很快的,代替一定阈值的链表,这样形成一个最佳拍档
  4. JDK1.8为什么使用内置锁synchronized来代替重入锁ReentrantLock,我觉得有以下几点
    1. 因为粒度降低了,在相对而言的低粒度加锁方式,synchronized并不比ReentrantLock差,在粗粒度加锁中ReentrantLock可能通过Condition来控制各个低粒度的边界,更加的灵活,而在低粒度中,Condition的优势就没有了
    2. JVM的开发团队从来都没有放弃synchronized,而且基于JVM的synchronized优化空间更大,使用内嵌的关键字比使用API更加自然
    3. 在大量的数据操作下,对于JVM的内存压力,基于API的ReentrantLock会开销更多的内存,虽然不是瓶颈,但是也是一个选择依据
作者:CoderZS
链接:https://www.jianshu.com/p/865c813f2726
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

你可能感兴趣的:(hashmap,java,hashmap)