HashMap源码简析

说到HashMap相信大家并不陌生,这是一个非常常用的以键值对形式存储的数据结构,但是对其内部原理可能不是很了解,它的内部是以什么形式存储的,它的存取的性能号称能达到O(1)又是如何实现的,我们从源码来做个简要的分析。

主要成员变量

我们先来看以下HashMap主要有哪些成员变量

//最小值
private static final int MINIMUM_CAPACITY = 4;
//最大值,2的30次方
private static final int MAXIMUM_CAPACITY = 1 << 30;
//加载因子
static final float DEFAULT_LOAD_FACTOR = .75F;
//大小
transient int size;
//独立的entry,专用用来处理key为null的情况
transient HashMapEntry entryForNullKey;
//加载的阀值,当size超过这个值时,将会调用doubleCapacity()方法扩容
private transient int threshold;
//存储数据的主要容器,一个HashMapEntry数组
transient HashMapEntry[] table;
//分别是存储key和value的集合
private transient Set keySet;
private transient Collection values;
//存储Entry的集合
private transient Set> entrySet;

可以看到存储数据的主要容器是一个数组,而HashMapEntry是我们循环遍历HashMap时的Entry的子类,下面我们看一下这个类

static class HashMapEntry implements Entry {
        final K key;
        V value;
        final int hash;
        HashMapEntry next;

        HashMapEntry(K key, V value, int hash, HashMapEntry next) {
            ...
        }
        ...
    }

table中的元素类型HashMapEntry,我们称之为桶,HashMapEntry里一个变量hash用于存储key的哈希值,还有一个next变量也是HashMapEntry类型,可见HashMapEntry是一个单链表结构,每一个桶都可以存储多个元素。

下面是HashMap的主要构造函数

public HashMap(int capacity) {
        ...  //参数判断和capacity为0时的空表创建

        //将capacity控制在既定的范围内并保证capacity为偶数
        if (capacity < MINIMUM_CAPACITY) {
            capacity = MINIMUM_CAPACITY;
        } else if (capacity > MAXIMUM_CAPACITY) {
            capacity = MAXIMUM_CAPACITY;
        } else {
            capacity = Collections.roundUpToPowerOfTwo(capacity);
        }
        makeTable(capacity);  //创建一个容量大小为capacity的数组
    }

makeTable方法中有如下代码:
threshold = (newCapacity >> 1) + (newCapacity >> 2);
其中threshold表示HashMap扩容的阀值,意思是在初始化时threshold等于总容量*0.75(加载因子),一旦HashMap中存储的元素数量超过threshold,就会对整个HashMap就行扩容。

扩容的方法如下

private HashMapEntry[] doubleCapacity() {
        HashMapEntry[] oldTable = table;
        int oldCapacity = oldTable.length;
        if (oldCapacity == MAXIMUM_CAPACITY) {
            return oldTable;  //如果旧数组的容量已经达到最大值,则直接返回
        }
        int newCapacity = oldCapacity * 2;  //将容量大小增加到以前的两倍
        HashMapEntry[] newTable = makeTable(newCapacity);
        if (size == 0) {  //如果当前大小为空,则直接返回新数组
            return newTable;
        }

        //把oldTable中的元素重新整理到newTable中
        for (int j = 0; j < oldCapacity; j++) {
            /*
             * Rehash the bucket using the minimum number of field writes.
             * This is the most subtle and delicate code in the class.
             */
            HashMapEntry e = oldTable[j];
            if (e == null) {
                continue;
            }
            int highBit = e.hash & oldCapacity;
            HashMapEntry broken = null;
            newTable[j | highBit] = e;
            for (HashMapEntry n = e.next; n != null; e = n, n = n.next) {
                int nextHighBit = n.hash & oldCapacity;
                if (nextHighBit != highBit) {
                    if (broken == null)
                        newTable[j | nextHighBit] = n;
                    else
                        broken.next = n;
                    broken = e;
                    highBit = nextHighBit;
                }
            }
            if (broken != null)
                broken.next = null;
        }
        return newTable;
    }

在重新组装table的过程使用了两个for循环遍历其中的元素,有一点复杂,我们先看HashMap的put方法,看看元素是如何存储的。

put方法

public V put(K key, V value) {
        if (key == null) {  //先处理空值情况
            return putValueForNullKey(value);
        }

        int hash = Collections.secondaryHash(key);  //计算出key的hash值
        HashMapEntry[] tab = table;
        int index = hash & (tab.length - 1);  //计算出key的对应桶的下标
        for (HashMapEntry e = tab[index]; e != null; e = e.next) {
            if (e.hash == hash && key.equals(e.key)) {
                preModify(e);
                V oldValue = e.value;
                e.value = value;
                return oldValue;  //key存在的情况下,直接更新value
            }
        }

        // No entry for (non-null) key is present; create one
        modCount++;
        if (size++ > threshold) {
            tab = doubleCapacity();  //size大于threshold时,调用扩容的方法,得到一个新的table
            index = hash & (tab.length - 1);
        }
        addNewEntry(key, value, hash, index);  //将新的桶更新到table中
        return null;
    }

put方法中,先计算出key的hash值,然后通过和table数组的最大index进行&操作,得到key在table里相对应的下标index,然后针对table[index]进行链表遍历,通过比较hash值和equals方法查找桶内是否存在相同的key,如果存在,则将新的value代替旧的存入,将旧的vaule返回;否则创建一个新的Entry,作为这个桶的头节点,最后返回空值。其实doubleCapacity方法只是将oldTable的遍历和newTable的定位及插入逻辑合并到了一起,原理跟put方法是十分类似的。

然后我们来看一下put方法的时间复杂度,该方法其实分为4个步骤,1.根据key计算出其hash值,并计算得到相应桶的下标index。2.查找table中index下标的Entry。3.遍历Entry为头节点的链表得到我们要找的Entry。4.取出Entry的value。
其中1、2、4步都能在O(1)时间内完成。我们之前了解到当size超过总容量*0.75后,会进行扩容,所以大部分情况下(key的hash分布较为均匀),每个桶中的元素个数 <= 1,极少数情况 >=2,所以第三步也可以在O(1)内完成,我们可以认为其整体时间复杂度为O(1)。

get方法的逻辑跟put基本一样,有兴趣可以自行了解一下。

你可能感兴趣的:(HashMap源码简析)