HashMap源码解析

本文基于JDK1.8

1.一些变量

static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;//HashMap的默认大小为16
static final int MAXIMUM_CAPACITY = 1 << 30;//最大为2的30次方
static final float DEFAULT_LOAD_FACTOR = 0.75f;//负载因子
static final int TREEIFY_THRESHOLD = 8;//链表变换为红黑树节点的临界值
static final int UNTREEIFY_THRESHOLD = 6;//红黑树节点变换为链表的临界值
static final int MIN_TREEIFY_CAPACITY = 64;//只有HashMap的长度大于64时,哈希桶中的链表才能转换为红黑树节点
transient int modCount;//记录修改树,如果迭代时,发现发生变化,抛出异常
int threshold;//HashMap没有初始化时保存初始大小,初始化之后,保存扩容临界值

2.红黑树节点优化

JDK1.8中对于哈希桶中长度大于8的链表会转换为红黑树,当红黑树中节点少于6时,再次转换为链表,红黑树算法太过复杂不分析了,我们只需要知道,对链表遍历查询的时间复杂度为O(N),转换为红黑树后,查询的复杂度降低为O(logN),插入的时间复杂度也如此。而6和8这两个临界值,应该是编写代码的人测试出来的最佳值吧

3.核心方法解析

4.1 hash

一个对象的hash值有32位,但是大部分的时候,一个HashMap不会达到2的30次方那么大,那么高位的bits影响不了对哈希桶的选择,造成的碰撞频率会提升,因此这个优化是,把hash值高16位与低16位异或,让高位也能影响到对哈希桶的选择。再加上碰撞之后的链表有转换红黑树的优化,所以性能还是可以的。这个算法简单,是基于综合考虑的。

static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

4.2 tableSizeFor

这个方法是用来返回比cap大的第一个2的幂次方
原理是通过位运算,把最高位的1的右边的位全部填充为1,让最后结果再加1,就是所需要的2的幂次方

static final int tableSizeFor(int cap) {
        int n = cap - 1;
        n |= n >>> 1;
        n |= n >>> 2;
        n |= n >>> 4;
        n |= n >>> 8;
        n |= n >>> 16;
        return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
    }

4.3 put

public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }

在put方法里面我们可以看到调用了上面讲的hash值优化的方法

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node[] tab; Node p; int n, i;
        if ((tab = table) == null || (n = tab.length) == 0)//1
            n = (tab = resize()).length;
        if ((p = tab[i = (n - 1) & hash]) == null)//2
            tab[i] = newNode(hash, key, value, null);
        else {
            Node e; K k;
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))//3
                e = p;
            else if (p instanceof TreeNode)//4
                e = ((TreeNode)p).putTreeVal(this, tab, hash, key, value);
            else {
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {//5
                        p.next = newNode(hash, key, value, null);
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            if (e != null) { // existing mapping for key //6
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        if (++size > threshold)//7
            resize();
        afterNodeInsertion(evict);
        return null;
    }

putVal的逻辑如下

  1. 判断table是否已经初始化,如果没有初始化,调用resize方法进行初始化
  2. 判断插入key对应哈希桶是否为null,如果为null,直接插入,否则进入3
  3. 判断插入key是否等于对应哈希桶的第一个key,如果是,将该节点赋值给e保存下来,否则进入4
  4. 判断所对应哈希桶是否为红黑树节点,如果是,调用红黑树的方法,返回对应entry,否则进入5,
  5. 循环遍历对应哈希桶的链表,如果不存在key相同,插入,e=null,并且判断是否可以转换为红黑树节点,如果存在,将目标节点赋值给e
  6. 在e!=null的情况下,根据参数onlyIfAbsent判断,如果true,只有在value=null才能替换值,否则忽略操作,替换之后直接return旧值
  7. 在e==null的情况下,也就是插入了元素,判断HashMap大小是否超过threshold,超过进行扩容

4.4 resize

resize方法有2个作用,对HashMap进行初始化和扩容

final Node[] resize() {
        Node[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {//1
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        else if (oldThr > 0) // initial capacity was placed in threshold //2
            newCap = oldThr;
        else {               // zero initial threshold signifies using defaults //3
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        if (newThr == 0) {//4
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node[] newTab = (Node[])new Node[newCap];
        table = newTab;
        if (oldTab != null) {//5
            for (int j = 0; j < oldCap; ++j) {
                Node e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)//6
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)//7
                        ((TreeNode)e).split(this, newTab, j, oldCap);
                    else { // preserve order//8
                        Node loHead = null, loTail = null;
                        Node hiHead = null, hiTail = null;
                        Node next;
                        do {
                            next = e.next;
                            if ((e.hash & oldCap) == 0) {//9
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }
  1. 如果已经是最大容量,不进行扩容,否则容量*2
  2. 构造函数配置了初始大小,先是初始化到threshold,然后在4赋值为扩容临界值
  3. 构造函数没有设置配置初始大小,使用默认值
  4. 如果是之前oldTab不存在,也就是初始化hashmap,直接返回newTab,如果存在,进入扩容逻辑
  5. 如果在oldTab中哈希桶只有一个元素,直接hash取余到newTab到新位置即可
  6. 如果哈希桶节点类型为红黑树节点,则走红黑树封装的分裂逻辑
  7. 如果是一个长链接,按照是否余数会发生变化的算法(位置9),将链表分裂为2个自链表,然后分别放到newTab中去

4.并发修改处理

看下所有迭代器的基类HashIterator中的nextNode方法

final Node nextNode() {
            Node[] t;
            Node e = next;
            if (modCount != expectedModCount)
                throw new ConcurrentModificationException();
            if (e == null)
                throw new NoSuchElementException();
            if ((next = (current = e).next) == null && (t = table) != null) {
                do {} while (index < t.length && (next = t[index++]) == null);
            }
            return e;
        }

modCount用来记录当前hashmap被修改了多少次,每次put,remove,clear等操作都会使这个参数自增,在初始化迭代器时,会把当前modCount赋值给expectedModCount,在迭代过程中一旦发现不一致,立刻抛出异常

你可能感兴趣的:(HashMap源码解析)