每日一面——谈谈你对HashMap的理解(小朋友问号的解答……)

菜鸡每日一面系列打卡10天    每天一道面试题目    助力小伙伴轻松拿offer    坚持就是胜利,我们一起努力!

 

题目描述

谈谈你对HashMap的理解。

题目分析

之前已经说过了HashMap的重要性,在此就不再赘述。本文将以源码为依据,回答之前提出的十一个问题,并对HashMap做一个小总结。

题目解答

  • 什么是HashMap?

    • 经常会有这样的场景,已知某些键的信息,需要查找与之对应的元素,这就需要一种能够保存映射关系的数据结构用来存放键值对。这就是映射型数据结构诞生的初衷,而HashMap就是Java提供的对于映射型数据结构的一种通用实现。

    • 为了清晰地把握HashMap在整个Map家族中的地位,菜鸡绘制了如下关系图。

每日一面——谈谈你对HashMap的理解(小朋友问号的解答……)_第1张图片

  • HashMap的底层结构是怎样的?

    • 在JDK1.8中,HashMap的主体结构是一个Node数组,而Node的本质就是一个键值对,不妨看看Node类的源码,此处只需关注Node类的主体结构即可。

static class Node implements Map.Entry {
    final int hash;
    final K key;
    V value;
    Node next;
    
    Node(int hash, K key, V value, Node next) {...}


    public final K getKey() {...}
    public final V getValue() {...}
    public final String toString() {...}
    public final int hashCode() {...}
    public final V setValue(V newValue) {...}
    public final boolean equals(Object o) {...}
}
    • 然而,仅仅使用Node数组难以解决哈希冲突,因此,引入了链表采用链地址法解决哈希冲突。

    • 而当冲突过多导致链表过长的时候,查询效率会下降,为了改善查询效率,在链表过长(默认长度大于8)的时候,会自动转化为红黑树(特殊情况,如果Node数组的长度小于64,则会进行数组扩容,而不是将链表转化为红黑树)。

  • JDK1.8与JDK1.7相比,HashMap有哪些变化?

    • 底层结构变化,JDK1.7HashMap底层是数组+链表,JDK1.8HashMap底层是数组+链表+红黑树。

    • put()方法变化,JDK1.7HashMap的put()方法采用的是头插法,JDK1.8HashMap的put()方法采用的是尾插法。

    • 哈希值以及下标的计算也不同。JDK1.7中的hash函数对哈希值的计算直接使用key的hashCode值,而JDK1.8中则是采用key的hashCode异或上key的hashCode进行无符号右移16位的结果,避免了只靠低位数据来计算哈希时导致的冲突,计算结果由高低位结合决定,使元素分布更均匀。

    • 扩容时的细节处理也不同。JDK1.7是通过更新hashSeed来修改hash值达到分散的目的,而JDK1.8是扩容时通过hash&cap == 0将链表分散,无需改变hash值。

  • HashMap是线程安全的吗?为什么?如何保证线程安全?

    • HashMap是非线程安全的。

    • 原因是其put()方法是非线程安全的,在JDK1.7中,由于采用的是头插法,在多线程环境下,可能会形成闭环而导致死循环,而在JDK1.8中改用了尾插法,虽然可以避免多线程环境下的死循环问题,但依然有可能造成数据丢失,因此是线程不安全的,详细源码见接下来有关put()方法的问题解答。

    • 通过ConcurrentHashMap代替HashMap来保证线程安全。

  • HashMap与Hashtable的区别是什么?

    • 底层数据结构:JDK1.8HashMap底层结构是数组+链表+红黑树,而Hashtable是数组+链表。

    

    • 线程是否安全:HashMap是非线程安全的,而Hashtable是线程安全的,原因是其内部的方法基本都经过sychronized关键字修饰,但这也导致了锁粒度较大,已被弃用。多线程环境下建议使用ConcurrentHashMap。

    

    • 细节上的不同:

      • HashMap支持null作为键,而Hashtable不支持;

      • 在容量大小方面,在创建对象时不指定容量大小的情况下,HashMap的默认容量大小为16,后续每次扩容,容量大小变为原来的2倍;而Hashtable的默认容量大小为11,后续每次扩容,容量大小变为原来的2n + 1。在创建对象时指定容量大小的情况下,HashMap会将其扩容至2的幂次方大小,也就是说,在任何情况下,HashMap的容量都将是2的幂次方,这是为了在计算元素所在的数组下标时,用位运算取代取模运算,以提高效率;而Hashtable则会直接使用指定的值作为容量的大小。

  • HashMap与HashSet有什么联系?

    • HashSet底层就是通过HashMap实现的。

主要有四种,分别是默认的构造方法、指定容量的构造方法、指定容量与负载因子的构造方法、通过其他Map进行构造的方法。一般情况下,最好采用指定容量的构造方法,这需要对使用场景下HashMap的容量有一个合理的预估,这样可以避免频繁扩容导致的性能损失,或者容量过大带来的资源浪费。

  • HashMap的构造方法有哪几种?有什么区别?

    • 默认的构造方法

public HashMap() {
    this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
    • 指定容量的构造方法

public HashMap(int initialCapacity) {
    this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
    • 指定容量与负载因子的构造方法

public HashMap(int initialCapacity, float loadFactor) {
    if (initialCapacity < 0)
        throw new IllegalArgumentException("Illegal initial capacity: " + 
                                           initialCapacity);
    if (initialCapacity > MAXIMUM_CAPACITY)
        initialCapacity = MAXIMUM_CAPACITY;
    if (loadFactor <= 0 || Float.isNaN(loadFactor))
        throw new IllegalArgumentException("Illegal load factor: " +
                                           loadFactor);
    this.loadFactor = loadFactor;
    this.threshold = tableSizeFor(initialCapacity);
}
    • 通过其他Map进行构造的方法

public HashMap(Map m) {
    this.loadFactor = DEFAULT_LOAD_FACTOR;
    // 迭代复制
    putMapEntries(m, false);
}


final void putMapEntries(Map m, boolean evict) {
    int s = m.size();
    if (s > 0) {
        if (table == null) { // pre-size
            float ft = ((float)s / loadFactor) + 1.0F;
            int t = ((ft < (float)MAXIMUM_CAPACITY) ?
                     (int)ft : MAXIMUM_CAPACITY);
            if (t > threshold)
                threshold = tableSizeFor(t);
        }
        else if (s > threshold)
            resize();
        for (Map.Entry e : m.entrySet()) {
            K key = e.getKey();
            V value = e.getValue();
            // put()方法的源码详解中会有该方法的详细实现
            putVal(hash(key), key, value, false, evict);
        }
    }
}
  • HashMap的put()方法的过程是什么?

    • 为了清晰地展示put()方法的过程,菜鸡借用美团技术团队的一张图,结合源码进行说明。

每日一面——谈谈你对HashMap的理解(小朋友问号的解答……)_第2张图片

public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
}


final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node[] tab; Node p; int n, i;
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    else {
        Node e; K k;
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        else if (p instanceof TreeNode)
            e = ((TreeNode)p).putTreeVal(this, tab, hash, key, value);
        else {
            for (int binCount = 0; ; ++binCount) {
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    break;
                }
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    // 线程不安全
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}

结合图与源码,HashMap的put()方法的过程描述如下。

判断键值对数组table[i]是否为空或为null,若是则进行扩容,接下来计算数组索引i,如果table[i]==null,直接新建节点添加,否则判断table[i]的首个元素是否和key相同,若是则覆盖value,否则判断table[i] 是否为treeNode,若是则直接在红黑树中插入键值对,否则遍历table[i],判断链表长度是否大于8,若是则将链表转换为红黑树,在红黑树中执行插入操作,否则进行链表的插入操作,遍历过程中若发现key存在则覆盖value,插入成功后,判断实际存在的键值对数量是否大于最大容量,若是则进行扩容。

  • HashMap的get()方法的过程是什么?

public V get(Object key) {
    Node e;
    return (e = getNode(hash(key), key)) == null ? null : e.value;
}


final Node getNode(int hash, Object key) {
    Node[] tab; Node first, e; int n; K k;
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (first = tab[(n - 1) & hash]) != null) {
        if (first.hash == hash && // always check first node
            ((k = first.key) == key || (key != null && key.equals(k))))
            return first;
        if ((e = first.next) != null) {
            if (first instanceof TreeNode)
                return ((TreeNode)first).getTreeNode(hash, key);
            do {
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    return e;
            } while ((e = e.next) != null);
        }
    }
    return null;
}

结合源码,HashMap的get()方法的过程描述如下。

首先判断表是否为空或null,若是则返回null,否则判断哈希值是否相等并且对象是否相等(短路求值,提高效率),若是则返回该对象,否则判断结点是红黑树的结点还是链表的结点,并进行相应的查询操作,若查询到结果则返回,否则返回null。

  • HashMap如何计算哈希值?为什么?

static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

由源码可见,JDK1.8中则是采用key的hashCode异或上key的hashCode进行无符号右移16位的结果。这样做的原因是避免只靠低位数据来计算哈希时导致的冲突,计算结果由高低位结合决定,使元素分布更均匀。

  • HashMap的扩容的过程是什么?

final Node[] resize() {
        Node[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node[] newTab = (Node[])new Node[newCap];
        table = newTab;
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                Node e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        ((TreeNode)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        Node loHead = null, loTail = null;
                        Node hiHead = null, hiTail = null;
                        Node next;
                        do {
                            next = e.next;
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

由源码可知,在扩容时,使用的是2次幂的扩展(指长度扩为原来2倍),所以,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。

以上就是菜鸡对HashMap的一个小总结,供大家参考,多读源码涨知识!

更多学习 | 工作 | 分享等精彩内容,关注公众号有理想的菜鸡】,只有你想不到,没有你学不到!

你可能感兴趣的:(Java,面试经验)