本文基于JDK1.8
1.一些变量
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;//HashMap的默认大小为16
static final int MAXIMUM_CAPACITY = 1 << 30;//最大为2的30次方
static final float DEFAULT_LOAD_FACTOR = 0.75f;//负载因子
static final int TREEIFY_THRESHOLD = 8;//链表变换为红黑树节点的临界值
static final int UNTREEIFY_THRESHOLD = 6;//红黑树节点变换为链表的临界值
static final int MIN_TREEIFY_CAPACITY = 64;//只有HashMap的长度大于64时,哈希桶中的链表才能转换为红黑树节点
transient int modCount;//记录修改树,如果迭代时,发现发生变化,抛出异常
int threshold;//HashMap没有初始化时保存初始大小,初始化之后,保存扩容临界值
2.红黑树节点优化
JDK1.8中对于哈希桶中长度大于8的链表会转换为红黑树,当红黑树中节点少于6时,再次转换为链表,红黑树算法太过复杂不分析了,我们只需要知道,对链表遍历查询的时间复杂度为O(N),转换为红黑树后,查询的复杂度降低为O(logN),插入的时间复杂度也如此。而6和8这两个临界值,应该是编写代码的人测试出来的最佳值吧
3.核心方法解析
4.1 hash
一个对象的hash值有32位,但是大部分的时候,一个HashMap不会达到2的30次方那么大,那么高位的bits影响不了对哈希桶的选择,造成的碰撞频率会提升,因此这个优化是,把hash值高16位与低16位异或,让高位也能影响到对哈希桶的选择。再加上碰撞之后的链表有转换红黑树的优化,所以性能还是可以的。这个算法简单,是基于综合考虑的。
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
4.2 tableSizeFor
这个方法是用来返回比cap大的第一个2的幂次方
原理是通过位运算,把最高位的1的右边的位全部填充为1,让最后结果再加1,就是所需要的2的幂次方
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
4.3 put
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
在put方法里面我们可以看到调用了上面讲的hash值优化的方法
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node[] tab; Node p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)//1
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)//2
tab[i] = newNode(hash, key, value, null);
else {
Node e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))//3
e = p;
else if (p instanceof TreeNode)//4
e = ((TreeNode)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {//5
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key //6
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)//7
resize();
afterNodeInsertion(evict);
return null;
}
putVal的逻辑如下
- 判断table是否已经初始化,如果没有初始化,调用resize方法进行初始化
- 判断插入key对应哈希桶是否为null,如果为null,直接插入,否则进入3
- 判断插入key是否等于对应哈希桶的第一个key,如果是,将该节点赋值给e保存下来,否则进入4
- 判断所对应哈希桶是否为红黑树节点,如果是,调用红黑树的方法,返回对应entry,否则进入5,
- 循环遍历对应哈希桶的链表,如果不存在key相同,插入,e=null,并且判断是否可以转换为红黑树节点,如果存在,将目标节点赋值给e
- 在e!=null的情况下,根据参数onlyIfAbsent判断,如果true,只有在value=null才能替换值,否则忽略操作,替换之后直接return旧值
- 在e==null的情况下,也就是插入了元素,判断HashMap大小是否超过threshold,超过进行扩容
4.4 resize
resize方法有2个作用,对HashMap进行初始化和扩容
final Node[] resize() {
Node[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {//1
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold //2
newCap = oldThr;
else { // zero initial threshold signifies using defaults //3
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {//4
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node[] newTab = (Node[])new Node[newCap];
table = newTab;
if (oldTab != null) {//5
for (int j = 0; j < oldCap; ++j) {
Node e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)//6
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)//7
((TreeNode)e).split(this, newTab, j, oldCap);
else { // preserve order//8
Node loHead = null, loTail = null;
Node hiHead = null, hiTail = null;
Node next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {//9
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
- 如果已经是最大容量,不进行扩容,否则容量*2
- 构造函数配置了初始大小,先是初始化到threshold,然后在4赋值为扩容临界值
- 构造函数没有设置配置初始大小,使用默认值
- 如果是之前oldTab不存在,也就是初始化hashmap,直接返回newTab,如果存在,进入扩容逻辑
- 如果在oldTab中哈希桶只有一个元素,直接hash取余到newTab到新位置即可
- 如果哈希桶节点类型为红黑树节点,则走红黑树封装的分裂逻辑
- 如果是一个长链接,按照是否余数会发生变化的算法(位置9),将链表分裂为2个自链表,然后分别放到newTab中去
4.并发修改处理
看下所有迭代器的基类HashIterator中的nextNode方法
final Node nextNode() {
Node[] t;
Node e = next;
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
if (e == null)
throw new NoSuchElementException();
if ((next = (current = e).next) == null && (t = table) != null) {
do {} while (index < t.length && (next = t[index++]) == null);
}
return e;
}
modCount用来记录当前hashmap被修改了多少次,每次put,remove,clear等操作都会使这个参数自增,在初始化迭代器时,会把当前modCount赋值给expectedModCount,在迭代过程中一旦发现不一致,立刻抛出异常