相对于JDK1.6,在JDK1.8中HashMap的一些算法是有变化的,在1.8引入了红黑树,当一个Hash桶中元素个数大于一定值得时候,会把链表转为红黑树,降低了查询时的时间复杂度,还有就是hash桶中的链表,摒弃了1.6中采用的头插法(扩容的时候在多线程下可能会引起死循环)采用了尾插法。然后再扩容的时候,不再重新计算一个节点所在的hash桶的下标,而采用了Hash&oldCap的算法,因为扩容后节点所在桶的下标只有两种可能,一种是和原来的下标相同,另一个是原来下标加上oldCap(原数组长度)的位置。
// 默认初始容量
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
//最大容量
static final int MAXIMUM_CAPACITY = 1 << 30;
// 默认加载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
// 由链表转为树的链表长度,就是当hash桶中的链表长度达到这个值得时候会把链表转为红黑树
static final int TREEIFY_THRESHOLD = 8;
// 当红黑树的节点树少于这个值得时候,会转为链表
static final int UNTREEIFY_THRESHOLD = 6;
// 只有HashMap的容量大于这个值得时候,才会把链表转为红黑树,如果容量没有达到这个值,就算是链表的长度达到TREEIFY_THRESHOLD的值,也不会把链表转为红黑树
static final int MIN_TREEIFY_CAPACITY = 64;
// 存储数据的数组,HashMap的数据都会存在这个数组中
transient Node<K,V>[] table;
// 记录HashMap的长度
transient int size;
// 扩容临界值
int threshold;
// 实际的加载因子
final float loadFactor;
只指定了加载因子为默认值0.75
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
加载因子用的默认值
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap(int initialCapacity, float loadFactor) {
// 初始容量不能小于0,否则就直接抛出异常
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
// 初始容量不能大于最大值,如果大于最大值就取最大值
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
// 校验加载因子的合法性
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
计算容量,这一系列的计算主要就是保证容量是2的指数倍,并且能够满足指定的要求(要大于等于指定的容量值),这个算法和JDK1.6算法是不一样的。
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
加载因子采用默认的0.75
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
如果HashMap中已经有对应的key,则value会把原值覆盖掉(putVal方法的第四个参数传的false)
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
如果hash桶的数据结构是链表,则新插入数据是插入到链表的尾部,而JDK1.6是插入到头部的,所以在多线程扩容的时候,JDK1.8是不会形成死循环的
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 如果table是null或其长度为0,则要进行扩容(用无参构造方法的时候table就会为null)
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 如果节点落在的地那个Hash桶是空的,就直接放进去进行了
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 以下if-else if-else主要是查找HashMap中是否已经存在此key
// 相应的hash桶中的数据,第一个节点的key就和要插进的数据的key一样
if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// hash桶的数据结构是红黑树
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// hash桶的数据结构是链表
else {
for (int binCount = 0; ; ++binCount) {
// 如果桶中的数据和要插入的key没有匹配,则要新建一个节点,并链入到链表的尾部,注意是在尾部插入
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 如果链表的长度达到8,则会把链表转为红黑树(在treeifyBin方法中还会判断,是否一定要转)
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 判断此节点的key是否和要插入节点的key相同
if (e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 如果HashMap中已经存在相应的key,则要返回key所对应的原value,并根据onlyIfAbsent的值来决定是否用新值覆盖旧值,put方法传进来的onlyIfAbsent的值是false,所以会覆盖掉原值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);// HashMap中此方法是空的
return oldValue;
}
}
++modCount;
// 添加完成以后,判断时候要扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
扩容方法,看注释基本上应该可以看出大致的原理
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
// 如果原数组为null,则其容量取0,否则就取原数组的长度
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 扩容的临界值
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {// 原容量大于0
if (oldCap >= MAXIMUM_CAPACITY) {// 如果原容量已经大于或等于最大容量,则返回原数组就好了,因为已经不能再扩容了
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 新容量扩展为原来的两倍,如果新容量小于最大容量且原容量大于等于默认容量,则其新的扩容临界值就变为原扩容临界值的两倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
// 原扩容临界值大于0,则新容量为原扩容临界值(这种情况可能是指定初始容量为0是构造出来的)
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
// 原容量和原扩容临界值都不大于0,则新容量和新扩容临界值就采用默认(无参构造方法构造出来的HashMap就可能是这种情况)
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {// 如果新的扩容临界值为0,则重新计算其值
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];// 构建新的数组
table = newTab;
if (oldTab != null) {
// 这个循环就是把原数组中的数据放到新的数组中
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;// 把原数组下标为j的位置置空,以便后面gc好回收内存
if (e.next == null)// 原来的Hash桶中就只有一个元素,重新计算其位置就行了
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)// 此Hash桶中的数据结构是红黑树
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
// 正常的链表
else { // preserve order
Node<K,V> loHead = null, loTail = null;// 低位的头节点和尾节点
Node<K,V> hiHead = null, hiTail = null;// 高位的头节点和尾节点
Node<K,V> next;
do {
next = e.next;
// 判断这个节点是落在原来的位置,还是落在原来位置+oldCap位置,这个是JDK1.8的一个优化,不在重新计算节点的新位置,因为节点的位置只有两种可能,一个是落在原下标的那个Hash桶中,一个是落在原下标+oldCap(原数组的长度)的那个hash桶中
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
// 如果tab为null,或其长度小于64,都不会转为红黑树,而是直接扩容。如果tab的长度不大于64,而一个hash桶中的节点数却达到了8个,只能说hash碰撞太厉害了
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
// 把相应的hash桶中的数据结构转为红黑树,此处不再对红黑树展开,感兴趣的可以自己去看一下
else if ((e = tab[index = (n - 1) & hash]) != null) {
TreeNode<K,V> hd = null, tl = null;
do {
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);
}
}
如果HashMap中已经有相应的key,则不插入(不覆盖原值),如果不存在相应的key,则插入。可以用putIfAbsent方法达到这个目的。注意调用putVal的时候第四个参数传的true.
public V putIfAbsent(K key, V value) {
return putVal(hash(key), key, value, true, true);
}
public void putAll(Map<? extends K, ? extends V> m) {
putMapEntries(m, true);
}
首先检测table是否为null,如果是,就会初始化各种参数,如果不为null,检测是否需要扩容,然后循环调用putVal方法,把值一个一个的放进HashMap
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
int s = m.size();
if (s > 0) {
if (table == null) { // pre-size
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
if (t > threshold)
threshold = tableSizeFor(t);
}
else if (s > threshold)
resize();
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
putVal(hash(key), key, value, false, evict);
}
}
}
如果存在就移除,并返回key对应的value。调用removeNode时第三个参数为null,第四个参数为false(这个决定是否value也要匹配)
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?null : e.value;
}
主要分两步,一是匹配key,二是删除节点
final Node<K,V> removeNode(int hash, Object key, Object value, boolean matchValue, boolean movable) {
Node<K,V>[] tab; Node<K,V> p; int n, index;
// 如果table不是空,且其长度大于0,则根据key去匹配节点,如果匹配到,则根据matchValue、value和匹配到的节点的value来决定是否删除对应的节点
if ((tab = table) != null && (n = tab.length) > 0 &&(p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e; K k; V v;
// Hash桶的第一个节点就匹配成功
if (p.hash == hash &&((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {
// 红黑树匹配
if (p instanceof TreeNode)
// 根据hash和key获取红黑树的一个节点
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
// 链表匹配
else {
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
// 删除红黑树的一个节点
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
// 删除hash桶的第一个节点
else if (node == p)
tab[index] = node.next;
// 删除链表的非第一个节点
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
removeNode的第三个参数传的value,第四个参数传的true,要求value也要匹配
public boolean remove(Object key, Object value) {
return removeNode(hash(key), key, value, true, true) != null;
}
循环把数组的每一项都置空,让gc回收内存
public void clear() {
Node<K,V>[] tab;
modCount++;
if ((tab = table) != null && size > 0) {
size = 0;
for (int i = 0; i < tab.length; ++i)
tab[i] = null;
}
}
相比与put方法,普通方法是如果key存在就替换,如果不存在就添加,而replace只是替换,如果key不存在HashMap中,则不会添加进去。
如果替换成功会返回旧的value值
public V replace(K key, V value) {
Node<K,V> e;
// 根据指定的key获取节点信息,如果获取到,就替换原value
if ((e = getNode(hash(key), key)) != null) {
V oldValue = e.value;
e.value = value;
afterNodeAccess(e);
return oldValue;
}
return null;
}
// 根据key来获取节点信息,同样是分第一个节点匹配、红黑树匹配和链表匹配
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&(first = tab[(n - 1) & hash]) != null) {
// Hash桶中的第一个节点
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
// 红黑树匹配
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 链表匹配
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
还是先根据key来获取节点信息,如果获取成功,然后再匹配value,如果value也匹配成功,则更改value的值。如果修改成功则返回true,否则返回false
public boolean replace(K key, V oldValue, V newValue) {
Node<K,V> e; V v;
if ((e = getNode(hash(key), key)) != null &&
((v = e.value) == oldValue || (v != null && v.equals(oldValue)))) {
e.value = newValue;
afterNodeAccess(e);
return true;
}
return false;
}
调用getNode获取节点信息,如果获取到节点,则返回相应的值就行了
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
public V getOrDefault(Object key, V defaultValue) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? defaultValue : e.value;
}
public boolean containsKey(Object key) {
return getNode(hash(key), key) != null;
}
因为不能根据value来计算它落到那个Hash桶中,所以只有全局循环来匹配,效率比较低
public boolean containsValue(Object value) {
Node<K,V>[] tab; V v;
if ((tab = table) != null && size > 0) {
for (int i = 0; i < tab.length; ++i) {
for (Node<K,V> e = tab[i]; e != null; e = e.next) {
if ((v = e.value) == value ||
(value != null && value.equals(v)))
return true;
}
}
}
return false;
}
size这个成员变量在增删的时候一直在维护,其大小就表示集合的长度
public int size() {
return size;
}
长度为0就是空集合
public boolean isEmpty() {
return size == 0;
}