前言
HashMap是Map集合的一种实现,提供了一种简单实用的数据存储和读取方式。
Map接口不同于List接口,属于集合框架中的另一个支线。
HashMap采用K-V键值对数据存储模型,底层的存储结构是基于数组和链表实现。在JDK 8中,当数组中某一项的链表存储键值对的个数超过8时,会使用红黑树来存储。
HashMap是一个非线程安全的集合类。如果在多线程环境下,可以使用Collections.synchronizedMap获得线程安全的HashMap:
Map map = Collections.synchronizedMap(new HashMap());
在HashMap中,我们把数组看作buckets array,数组的每个元素Node实现了Map.Entry接口,也叫做槽(bucket)。容量是指数的槽的数量。
HashMap实现了Map接口,有put、get、remove等一些操作集合的方法。
HashMap继承了AbstractMap类,AbstractMap类对于Map接口做了基础的实现,实现了containsKey、containsValue等方法。
源码分析
成员变量
...
static final int DEFAULT_INITIAL_CAPACITY = 16;
static final int MAXIMUM_CAPACITY = 1073741824;
static final float DEFAULT_LOAD_FACTOR = 0.75F;
static final int TREEIFY_THRESHOLD = 8;
static final int UNTREEIFY_THRESHOLD = 6;
static final int MIN_TREEIFY_CAPACITY = 64;
transient Node[] table;
transient Set> entrySet;
transient int size;
transient int modCount;
int threshold;
final float loadFactor;
成员变量相对于List接口下的集合类来说比较多,我们可以从名字上看出对应的含义。
- DEFAULT_INITIAL_CAPACITY:表示默认容量,容量必须为2的幂。
- MAXIMUM_CAPACITY:表示最大容量,如果传入的容量大于该值,实际容量也会被该值替换。
- DEFAULT_LOAD_FACTOR:默认的加载因子。加载因子可以理解为饱和率。用来计算扩容的threshold。当HashMap的实际元素容量达到threshold时,HashMap进行扩容操作。
- TREEIFY_THRESHOLD:当槽的链表容量大于该值时,该槽内的存储结构由链表改为红黑树。该值必须大于2,最好大于8。
- UNTREEIFY_THRESHOLD:当槽存储的元素容量小于该值时,由树型转回链式结构。该值应该小于TREEIFY_THRESHOLD。该值最大为6。
- MIN_TREEIFY_CAPACITY:当哈希表的容量大于该值时,表中的槽才能树形化。否则槽内元素太多时会扩容。为了避免扩容与树形化选择的冲突,该值不能小于4 * TREEIFY_THRESHOLD。
- table:存储Entry的数组,每个Entry是一条单链表的头结点。
- entrySet:HashMap中所有键值对的集合。
- size:HashMap键值对的数量。
- threshold:如果size大于该值时,会进行扩容操作。threshold = capacity loadFactor。
- loadFactor:实际的加载因子,通过构造方法传入。默认等于DEFAULT_LOAD_FACTOR。
构造方法
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
public HashMap(Map extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
HashMap有四个构造方法。我们主要关注的是initialCapacity(初始大小)、loadFactor(加载因子)两个参数。
第一个方法支持同时自定义两个参数。
第二个方法支持自定义initialCapacity,loadFactor使用DEFAULT_LOAD_FACTOR。
第三个方法不传参,initialCapacity使用DEFAULT_INITIAL_CAPACITY,loadFactor使用DEFAULT_LOAD_FACTOR。
第四个是将其它的Map集合元素重新散列,构造一个HashMap。
关注第一个方法中的tableSizeFor()方法。
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;// >>>表示无符号右移
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
这个方法主要是位运算操作。返回值是2的幂中第一个大于等于传入的cap的数值。
注意int n = cap - 1。这句话是为了避免cap本来就是2的幂次方,这样一来,经过后续的位操作的,返回值将会变成2 * cap,是不符合我们预期的。
Node类
static class Node implements Map.Entry {
final int hash;
final K key;
V value;
Node next;
Node(int hash, K key, V value, Node next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);//异或运算
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry,?> e = (Map.Entry,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
Node
重要普通方法
- hash(Object key)
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
这个方法首先获得了key的 Hash值。然后通过 Hash值进行高位运算。过程如下图:
在JDK1.8的实现中,优化了高位运算的算法,通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候,也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销。
- put(key,value)
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node[] tab; Node p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
// tab 为空,调用resize()初始化tab。
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
// key没有被占用的情况下,将value封装为Node并赋值
tab[i] = newNode(hash, key, value, null);
else {
Node e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
// 如果key相同,p赋值给e
e = p;
else if (p instanceof TreeNode)
// 如果p是红黑树类型,调用putTreeVal方式赋值
e = ((TreeNode)p).putTreeVal(this, tab, hash, key, value);
else {
// index 相同的情况下
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
// 如果p的next为空,将新的value值添加至链表后面
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
// 如果链表长度大于8,链表转化为红黑树,执行插入
treeifyBin(tab, hash);
break;
}
// key相同则跳出循环
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
//根据规则选择是否覆盖value
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
// size大于加载因子,扩容
resize();
afterNodeInsertion(evict);
return null;
}
HashMap 的插入操作需要分多种情况来判断。具体流程如下图:
- resize( ) 方法
final Node[] resize() {
Node[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
// table已存在
if (oldCap >= MAXIMUM_CAPACITY) {
// 超过最大值就不再扩充
threshold = Integer.MAX_VALUE;
return oldTab;
}
//没超过最大值,扩充为原来的两倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
// 初始化时,tableSizeFor方法保证了threshold是2的幂次方
newCap = oldThr;
else { // zero initial threshold signifies using defaults
// 默认初始化,cap为16,threshold为12。
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node[] newTab = (Node[])new Node[newCap];
table = newTab;
if (oldTab != null) {
// 把每个bucket都移动到新的buckets中
for (int j = 0; j < oldCap; ++j) {
Node e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
// 链表只有一个节点,直接赋值
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
// e为红黑树的情况
((TreeNode)e).split(this, newTab, j, oldCap);
else { // preserve order
Node loHead = null, loTail = null;
Node hiHead = null, hiTail = null;
Node next;
do {
next = e.next;
// e.hash & oldCap是新增的bit位的值
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
前面一部分是对于扩容的操作。oldCap > 0表示table已经被初始化过了。说明 HashMap 已经有元素了。而其它情况都是构造 HashMap 后还没有初始化table的情况。
resize方法我们主要关注的是元素转移到新数组的操作。
假设 HashMap 的capacity为 2k2k。一个元素element在这个数组中的索引为:index = element.hash & (2^k - 1)。
2^k - 1用二进制表示,它的最后 k 位都为1。
所以index的值就是element.hash二进制表示的最后 k 位转化为十进制。
示例如下:
接下来我们对 HashMap 进行扩容。capacity 为2k+12k+1。元素element在原来数组中的位置为index。
计算element在新数组中的位置:newIndex = element.hash & (2 ^ (k + 1)- 1)。
element.hash为固定值。考虑(2 ^ (k + 1)- 1)的取值,由上面的分析可以知道,它用二进制表示最后 k+1 位都为 1 。所以newIndex的值就是element.hash二进制表示的最后 k+1 位转化为十进制。
我们来探讨index与newIndex之间的关系。下面的hash都表示element.hash。
index的取值为hash的最后 k 位,newIndex的取值为hash的最后 k+1 位。
第 k+1 位转化为十进制时的取值为 2k2k。
假设hash的第 k+1 位为 x,它的值为hash & 2^k,newIndex = index + x∗2kx∗2k
当 x 为 0 时,最后的 k+1 位的值与最后 k 位的值一样。即newIndex = index。
当 x 为 1 时,newIndex = index + 2k2k。即element的位置右移了 2k2k位。
所以在计算新的索引值时,只需要计算hash的第 k+1 位,即hash & 2^k。
这个设计非常的巧妙,新增的1bit是0还是1可以认为是随机的,因此resize的过程均匀的把之前的冲突的节点分散到新的bucket中了。
假设capacity从 16 扩展到 32 。
理解了这个过程之后,resize方法理解起来就很简单了。
另外一个注意的点是:在 JDK 1.8 中,旧链表迁移新链表的时候,如果在新表的数组索引位置相同,链表元素不会倒置。这与 JDK 1.7 中不同。
- get(key)
public V get(Object key) {
Node e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node getNode(int hash, Object key) {
Node[] tab; Node first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
if (first instanceof TreeNode)
return ((TreeNode)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
判断元素相等的设计比较经典,利用了 bool表达式的短路特性:先比较 hash值;如果 hash值相等,就通过==比较;如果==不等,再通过equals方法比较。hash是提前计算好的;==直接比较引用值;equals方法最有可能耗费性能,如String的equals方法需要O(n)的时间,n是字符串长度。
- remove(key) & remove(key, value)
remove(key) 方法和remove(key, value)方法都是通过调用removeNode方法来实现删除元素的。
public V remove(Object key) {
Node e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
public boolean remove(Object key, Object value) {
return removeNode(hash(key), key, value, true, true) != null;
}
final Node removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node[] tab; Node p; int n, index;
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
Node node = null, e; K k; V v;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
// index 元素只有一个元素
node = p;
else if ((e = p.next) != null) {
if (p instanceof TreeNode)
// index处是一个红黑树
node = ((TreeNode)p).getTreeNode(hash, key);
else {
// index处是一个链表,遍历链表返回node
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
// 分不同情形删除节点
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
((TreeNode)node).removeTreeNode(this, tab, movable);
else if (node == p)
tab[index] = node.next;
else
p.next = .next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
线程安全
在多线程使用场景中,应该尽量避免使用线程不安全的 HashMap,而使用线程安全的 ConcurrentHashMap。
迭代器的fail-fast策略导致了并发不安全。如果在使用迭代器的过程中有其他线程修改了。HashMap就会抛出异常。
而在 JDK 1.7 中,并发 put操作触发扩容导致潜在可能的死循环现象。
示例如下:
public class HashMapInfiniteLoop {
private static HashMap map = new HashMap(2);
public static void main(String[] args) {
map.put(5, "C");
new Thread("Thread1") {
public void run() {
map.put(7, "B");
System.out.println(map);
};
}.start();
new Thread("Thread2") {
public void run() {
map.put(3, "A");
System.out.println(map);
};
}.start();
}
}
transfer方法中的迁移元素代码如下:
do {
Entry next = e.next; // <--假设线程一执行到这里就被调度挂起了
int i = indexFor(e.hash, newCapacity);
e.next = newTable[i];
newTable[i] = e;
e = next;
} while (e != null);
假设线程一执行完Entry
Thread1的 e 指向了key(3),而next指向了key(7)。
接下来线程一执行。先是执行 newTalbe[i] = e, 然后是e = next,导致了e指向了key(7),而下一次循环的next = e.next导致了next指向了key(3)。
e.next = newTable[i] 导致 key(3).next 指向了 key(7)。注意:此时的key(7).next已经指向了key(3), 环形链表就这样出现了。
当我们用线程一调用map.get(11)时,悲剧就出现了——Infinite Loop。
总结
扩容是一个特别耗性能的操作,所以当程序员在使用HashMap的时候,估算map的大小,初始化的时候给一个大致的数值,避免map进行频繁的扩容。
负载因子是可以修改的,也可以大于1,但是建议不要轻易修改,除非情况非常特殊。
HashMap是线程不安全的,不要在并发的环境中同时操作HashMap,建议使用ConcurrentHashMap。
JDK1.8引入红黑树大程度优化了HashMap的性能。