从HashMap 源码中我们可以发现,HashMap的初始化有一下四种方式
//HashMap默认的初始容量大小 16,容量必须是2的幂
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
// HashMap最大容量
static final int MAXIMUM_CAPACITY = 1 << 30;
// 扩容阈值,当容量超过这个阈值时触发HashMap的扩容流程
int threshold;
// 加载因子,即数组填满的程度,也可以理解为数组的利用率,我们可以通过自己指定加载因子来决定数据的扩容时机
// 因子越大利用率越高,随之hash冲突的几率也更高
// 因子越小,hash冲突的几率更小,但是浪费空间
final float loadFactor;
/**
* 第一种通过指定容量和加载因子创建一个空的hashMap
* @param initialCapacity 初始容量
* @param loadFactor 加载因子
*/
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
// 指定初始容量大于最大值时重置为最大值
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
// 根据指定的初始容量计算出扩容的阈值
this.threshold = tableSizeFor(initialCapacity);
}
/**
* 返回一个2的次幂的阈值,这里通过或运算和位运算,计算得到离指定参数最近的2的次幂数
* Returns a power of two size for the given target capacity.
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
/**
* 第二种通过指定初始容量创建,默认加载因子 0.75
* @param initialCapacity 初始容量
*/
public HashMap(int initialCapacity) {
// 此处发现是直接调用的是第一种方法
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
/**
* 第三种创建空对象,指定默认加载因子
*/
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
/**
* 第四种传入一个已有map结构数据,创建一个新的HashMap
* @param m the map whose mappings are to be placed in this map
*/
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
// 从以上几种创建方式我们发现HashMap在初始化时并不会设置初始容量,第一种方法中的参数也只是用于计算扩容的阈值,那么HashMap是什么时候才会初始化容量值呢?我们往下看。
public V put(K key, V value) {
// put流程是先计算出key的hash值,然后再调用put方法执行插入流程
return putVal(hash(key), key, value, false, true);
}
// 开始put流程
/**
1. @param hash hash for key
2. @param key the key
3. @param value the value to put
4. @param onlyIfAbsent if true, don't change existing value
5. @param evict if false, the table is in creation mode.
6. @return previous value, or null if none
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 如果数组为空或者长度为0,直接从 resize() 方法获取长度, 这里 resize() 做了哪些事情我们先不关注,继续往下看
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
// (n - 1) & hash 计算key的下标,思考为什么要这么算?
// 此处判断是否存在hash冲突,如果key所在下标为空直接创建node对象赋值
tab[i] = newNode(hash, key, value, null);
else {
// 这里是发生了hash冲突的处理流程,p 就是冲突的Node
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
// 如果冲突的Node hash值与插入的相等,key也相等,则直接将旧值赋值给 e
e = p;
else if (p instanceof TreeNode)
// 如果hash不等并且key不等,并且Node已经转成红黑树结构,则使用红黑树的方式插入元素
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 如果hash不等并且key不等,并且还是链表结构,则遍历链表中的元素,
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
// 遍历链表,知道链表的最后一个元素,新建一个Node 赋值给节点的next
p.next = newNode(hash, key, value, null);
// 插入后判断此时链表的长度是否超过红黑树的阈值8,数组的长度是否超过64,超过则转换成红黑树结构
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
// 跳出循环
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
// 如果链表上元素值与插入值相等,跳出循环
break;
// 如果元素不是最后节点,并且与插入元素不等,进行下一轮循环
p = e;
}
}
if (e != null) { // existing mapping for key
// 通过上面的流程如果e不为空说明值已存在,拿出旧值 oldValue,并返回
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e); // 空实现
return oldValue;
}
}
// 走到这一步说明插入的值不存在,数组长度size+1
++modCount;
if (++size > threshold)
// 判断插入元素后是否超过阈值,超过则扩容
resize();
afterNodeInsertion(evict); // 空实现
return null;
}
分析完hashMap的put流程,下面我们做个简单总结,看看在put方法中主要做了哪些事情
下面我们继续分析put方法中的几个重要的方法
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
这里我们思考hashMap为什么要这样计算key的hash值呢?
我们先来看看他的运算过程
1.先判断key是否为null,如果为null,赋值为0
2.如果不为null,先获取key的hashCode()值,然后将hashCode的高16位右移到低位得到新值,最后将新值异或旧值得到最终结果
这样做的目的是为了将key分布的更加均匀
/**
* Initializes or doubles table size. If null, allocates in
* accord with initial capacity target held in field threshold.
* Otherwise, because we are using power-of-two expansion, the
* elements from each bin must either stay at same index, or move
* with a power of two offset in the new table.
*
* @return the table
*/
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
// 老容量
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 老阈值
int oldThr = threshold;
// 初始化新容量和阈值
int newCap, newThr = 0;
if (oldCap > 0) {
// 如果老容量大于0,说明数组中已有元素
if (oldCap >= MAXIMUM_CAPACITY) {
// 如果老容量大于容量最大值直接返回,阈值也设置为Integer最大值
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
// 如果老容量没到最大值,并且*2之后小于最大值, 并且大于等于初始容量,阈值也直接*2
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
// 如果老阈值大于0,新容量设置为老阈值
newCap = oldThr;
else { // zero initial threshold signifies using defaults
// 走到这里说明容量和阈值都是0,初始化是调用resize(),就会走到这个判断,那么设置新容量为默认值16,阈值为容量16*0.75=12
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
// 新阈值等于0,新容量*加载因子得到阈值,然后判断新容量小于最大值,并且新阈值小于最大值都使用新的阈值,否则设置为最大值
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
// 创建一个新容量长度的新数组
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
// 将新数组赋值给数组
table = newTab;
if (oldTab != null) {
// 遍历老数组中每个元素
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
// 遍历老数组
if ((e = oldTab[j]) != null) {
// 取出值然后设置为空
oldTab[j] = null;
if (e.next == null)
// 如果元素没有链表,重新计算元素在新数组的下标并赋值
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
// 如果元素是红黑树结构,调用split方法将数放入新的数组
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
// 元素是链表,循环遍历将元素放入新数组
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
HashMap中在初始化和扩容(链表长度大于8并且数组长度小于64)的时候都会调用resize方法,我们看看这个方法里主要做了哪些事
Node<K,V> newNode(int hash, K key, V value, Node<K,V> next) {
return new Node<>(hash, key, value, next);
}
/**
* Tree version of putVal.
*/
final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab, int h, K k, V v) {
// key的Class对象
Class<?> kc = null;
boolean searched = false;
// 获取根节点
TreeNode<K,V> root = (parent != null) ? root() : this;
// 开始循环遍历红黑树中所有节点
for (TreeNode<K,V> p = root;;) {
// dir 是一个标识,1表示放在节点右边,-1表示放在节点左边
// ph 当前节点的hash
// pk 当前节点的key
int dir, ph; K pk;
if ((ph = p.hash) > h)
dir = -1;
else if (ph < h)
dir = 1;
else if ((pk = p.key) == k || (k != null && k.equals(pk)))
// 判断当前节点的值和插入的值一样,直接返回获取的节点
return p;
else if ((kc == null &&
(kc = comparableClassFor(k)) == null) ||
(dir = compareComparables(kc, k, pk)) == 0) {
// 当前节点的hash值相等,但是equals不等
if (!searched) {
// searched 标识是否已经比较当前节点的左右子节点
TreeNode<K,V> q, ch;
searched = true;
// 在节点的节点的左右子节点递归查找,如果找到相同的值则直接返回
if (((ch = p.left) != null &&
(q = ch.find(h, k, kc)) != null) ||
((ch = p.right) != null &&
(q = ch.find(h, k, kc)) != null))
return q;
}
// 走到这一步说明没有找到相同的节点,比较插入的key和当前节点的key,计算出元素是往左插入还是往右插入
dir = tieBreakOrder(k, pk);
}
TreeNode<K,V> xp = p;
// 如果计算得到的dir 小于等于0,往左插入,大于0往右插入,并且节点为空
if ((p = (dir <= 0) ? p.left : p.right) == null) {
Node<K,V> xpn = xp.next;
TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn);
if (dir <= 0)
xp.left = x;
else
xp.right = x;
// 将当前节点的下一个节点指向新节点
xp.next = x;
// 新节点的父节点和前节点设置为当前节点
x.parent = x.prev = xp;
if (xpn != null)
((TreeNode<K,V>)xpn).prev = x;
// 重新平衡红黑树
moveRootToFront(tab, balanceInsertion(root, x));
return null;
}
}
}
/**
* Replaces all linked nodes in bin at index for given hash unless
* table is too small, in which case resizes instead.
*/
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
// 数组为空或者链表长度大于8,并且数组长度小于64,进行扩容
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {
// 将链表转成红黑树
TreeNode<K,V> hd = null, tl = null;
do {
// 将原链表中节点重新创建新的红黑树节点
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
// 头节点不为空调用该方法转红黑树
hd.treeify(tab);
}
}
/**
* Forms tree of the nodes linked from this node.
* @return root of tree
*/
final void treeify(Node<K,V>[] tab) {
// 定义一个根节点
TreeNode<K,V> root = null;
// 遍历链表,this表示当前节点,next表示下一节点
for (TreeNode<K,V> x = this, next; x != null; x = next) {
next = (TreeNode<K,V>)x.next;
x.left = x.right = null;
if (root == null) {
// root为空说明是第一个节点,将父节点设置为空
x.parent = null;
x.red = false;
root = x;
}
else {
// 处理后续节点,获取当前节点的key,hash,这里逻辑跟往红黑树中插入元素基本一致
K k = x.key;
int h = x.hash;
Class<?> kc = null;
for (TreeNode<K,V> p = root;;) {
int dir, ph;
K pk = p.key;
if ((ph = p.hash) > h)
dir = -1;
else if (ph < h)
dir = 1;
else if ((kc == null &&
(kc = comparableClassFor(k)) == null) ||
(dir = compareComparables(kc, k, pk)) == 0)
dir = tieBreakOrder(k, pk);
TreeNode<K,V> xp = p;
if ((p = (dir <= 0) ? p.left : p.right) == null) {
x.parent = xp;
if (dir <= 0)
xp.left = x;
else
xp.right = x;
root = balanceInsertion(root, x);
break;
}
}
}
}
// 把所有的链表节点都遍历完之后,最终构造出来的树可能经历多个平衡操作,根节点目前到底是链表的哪一个节点是不确定的
// 因为我们要基于树来做查找,所以就应该把 tab[N] 得到的对象一定根节点对象,而目前只是链表的第一个节点对象,所以要做相应的处理。
moveRootToFront(tab, root);
}
// 上面我们分析完HashMap的put流程,从下面这段代码可以看出1.8是采用尾插法新增元素
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
哈希冲突是由于hash算法被计算的数据是无限的,而计算后的结果范围是有限的,所以总会存在不同的数据计算后得到的值是一样的,那将会存在同一个位置,就会出现哈希冲突。
开放地址法:也称线性探测法,就是从发生冲突的那个位置,按照一定次序从Hash表中找到一个空闲的位置, 把发生冲突的元素存入到这个位置。而在java种ThreadLocal就用到了线性探测法,来解决Hash冲突。
链式寻址法:通过单向链表的方式来解决哈希冲突,Hashmap就是用了这个方法。(但会存在链表过长增加遍历时间)
再哈希法:key通过某个哈希函数计算得到冲突的时候,再次使用哈希函数的方法对key哈希一直运算直到不产生冲突为止 (耗时间,性能会有影响)
建立公共溢出区:就是把Hash表分为基本表和溢出表两个部分,凡是存在冲突的元素,一律放到溢出表中
HashMap在JDK1.8版本中是通过链式寻址法以及红黑树来解决Hash冲突的问题,其中红黑树是为了优化Hash表的链表过长导致时间复杂度增加的问题,当链表长度大于等于8并且Hash表的容量大于64的时候,再向链表添加元素,就会触发链表向红黑树的一个转化
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 数组不为空,并且数组长度大于0并且所查找的key对应下标不为空
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
// 如果key,hash相等直接返回
return first;
if ((e = first.next) != null) {
// 查找后续链表
if (first instanceof TreeNode)
// 如果节点是红黑树,则以红黑树的方式查找
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
// 到这里说明是链表,遍历链表查找匹配的元素,否则直接返回空
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
加载因子 = 填入表中的元素个数 / 散列表的长度
加载因子越大,填满的元素越多,空间利用率越高,但发生冲突的机会变大了;
加载因子越小,填满的元素越少,冲突发生的机会减小,但空间浪费了更多了,而且还会提高扩容rehash操作的次数。
冲突的机会越大,说明需要查找的数据还需要通过另一个途径查找,这样查找的成本就越高。因此,必须在“冲突的机会”与“空间利用率”之间,寻找一种平衡与折衷。
负载因子是0.75的时候,空间利用率比较高,而且避免了相当多的Hash冲突,使得底层的链表或者是红黑树的高度比较低,提升了空间效率。
如果不是2的幂次方的话,会导致大量的key存在同一个槽中,导致链表集中部分的槽上,影响性能
死循环:在链表转换成红黑数的时候无法跳出等多个地方都会出现这个问题。
put数据丢失
size计算不准:size只是用了transient关键字修饰,在各个线程中的size不会及时同步,在多个线程操作的时候,size将会被覆盖。
结构变化:1.7是数组+链表,1.8是数组+链表+红黑树
插入方式:1.7是头插法,1.8是尾插法
选择红黑树是为了解决二叉查找树的缺陷,二叉查找树在特殊情况下会变成一条线性结构(这就跟原来使用链表结构一样了,造成很深的问题),遍历查找会非常慢。而红黑树在插入新数据后可能需要通过左旋,右旋、变色这些操作来保持平衡,引入红黑树就是为了查找数据快,解决链表查询深度的问题,我们知道红黑树属于平衡二叉树,但是为了保持“平衡”是需要付出代价的,但是该代价所损耗的资源要比遍历线性链表要少,所以当长度大于8的时候,会使用红黑树,如果链表长度很短的话,根本不需要引入红黑树,引入反而会慢。