一、HashMap
HashMap是基于哈希表实现的,每一个元素是一个key-value对,利用key的hashCode重新hash计算出当前对象的元素在数组中的下标,存储时,如果出现hash值相同的key时,如果key相同,则覆盖原始值;如果key不同,则将当前的key-value放入链表中;获取时,直接value找到hash值对应的下标,在进一步判断key是否相同,从而找到对应value。
核心就是使用了数组的存储方式,将冲突的key的对象放入链表中,一旦发现冲突就在链表中做进一步的对比。
HashMap是非线程安全的,用于单线程环境下,多线程环境下可以采用concurrent并发包concurrentHashMap。
HashMap 实现了Serializable接口,因此它支持序列化,实现了Cloneable接口,能被克隆。
线程不安全
HashMap存数据的过程是: HashMap内部维护了一个存储数据的Entry数组,HashMap采用链表解决冲突,每一个Entry本质上是一个单向链表。当准备添加一个key-value对时,首先通过hash(key)方法计算hash值,然后通过indexFor(hash,length)求该key-value对的存储位置,计算方法是先用hash&0x7FFFFFFF后,再对length取模,这就保证每一个key-value对都能存入HashMap中,当计算出的位置相同时,由于存入位置是一个链表,则把这个key-value对插入链表头。
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
HashMap中key和value都允许为null。key为null的键值对永远都放在以table[0]为头结点的链表中。
HashMap的存储结构,如下图所示:
二、HashMap存储
紫色部分代表哈希表,称为哈希数组,数组的每个元素都是一个单链表的头节点,绿色链表是用来解决冲突的,如果不同的key映射到了数组的同一位置处,就将其放入单链表中。
HashMap内存储数据的Entry数组默认是16,当存储的数据一多,Entry内部的链表会很长,HasnMap内部有自己的扩容机制。HashMap内部有: 变量size,它记录HashMap的底层数组中已用槽的数量; 变量threshold,它是HashMap的阈值,用于判断是否需要调整HashMap的容量(threshold = 容量*加载因子) 变量DEFAULT_LOAD_FACTOR = 0.75f,默认加载因子为0.75 HashMap扩容的条件是:当size大于threshold时,对HashMap进行扩容
看完源码才知:
扩容是是新建了一个HashMap的底层数组,而后调用transfer方法,将就HashMap的全部元素添加到新的HashMap中(要重新计算元素在新的数组中的索引位置)。
扩容是一个相当耗时的操作,它需要重新计算这些元素在新的数组中的位置并进行复制处理。在用HashMap的时,为了提升性能,最好提前估计一下HasMap个数,并且HashMap相当的消耗内存。
/**
* Associates the specified value with the specified key in this map.
* If the map previously contained a mapping for the key, the old
* value is replaced.
*
* @param key key with which the specified value is to be associated
* @param value value to be associated with the specified key
* @return the previous value associated with key, or
* null if there was no mapping for key.
* (A null return can also indicate that the map
* previously associated null with key.)
*/
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
/**
* Implements Map.put and related methods.
*
* @param hash hash for key
* @param key the key
* @param value the value to put
* @param onlyIfAbsent if true, don't change existing value
* @param evict if false, the table is in creation mode.
* @return previous value, or null if none
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node[] tab; Node p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
/**
* Initializes or doubles table size. If null, allocates in
* accord with initial capacity target held in field threshold.
* Otherwise, because we are using power-of-two expansion, the
* elements from each bin must either stay at same index, or move
* with a power of two offset in the new table.
*
* @return the table
*/
final Node[] resize() {
Node[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node[] newTab = (Node[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode)e).split(this, newTab, j, oldCap);
else { // preserve order
Node loHead = null, loTail = null;
Node hiHead = null, hiTail = null;
Node next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
HashMap共有四个构造方法。有两个重要的参数:初始容量和加载因子。这两个参数是影响HashMap性能的重要参数,其中容量表示哈希表中槽的数量(即哈希数组的长度),初始容量是创建哈希表时的容量(从构造函数中可以看出,如果不指明,则默认为16),加载因子是哈希表在其容量自动增加之前可以达到多满的一种尺度,当哈希表中的条目数超出了加载因子与当前容量的乘积时,则要对该哈希表进行
resize 操作(即扩容)。
加载因子为什么时0.75,不是越打越好吗?
hashMap使用了拉链法处理冲突。 HashMap有一个初始容量大小,默认是16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
为了减少冲突的概率,当hashMap的数组长度到了一个临界值就会触发扩容,把所有元素rehash再放到扩容后的容器中,这是一个非常耗时。而这个临界值由【加载因子】和当前容器的容量大小来确定:DEFAULT_INITIAL_CAPACITY*DEFAULT_LOAD_FACTOR ,即默认情况下是16x0.75=12时,就会触发扩容操作。无论我们指定的容量为多少,构造方法都会将实际容量设为不小于指定容量的2的次方的一个数,且最大值不能超过
put 过程
三、HashTable
Hashtable同样是基于哈希表实现的,同样每个元素是一个key-value对,其内部也是通过单链表解决冲突问题,容量不足(超过了阀值)时,同样会自动增长。
Hashtable也是JDK1.0引入的类,是线程安全的,能用于多线程环境中。
Hashtable同样实现了Serializable接口,它支持序列化,实现了Cloneable接口,能被克隆。
线程安全
HashTable在不指定容量的情况下的默认容量为11,Hashtable不要求底层数组的容量一定要为2的整数次幂。
Hashtable扩容时,将容量变为原来的2倍加1。
HashTable中hash数组默认大小是11,增加的方式是 old*2+1。
package com.flux.fuyun.agm.controller.test;
/**
*
* @param
* @param
*/
public class HashTableCuston {
private Entry, ?>[] table;
private int capacity;
/**
* 默认构造函数,暂时未加入装载因子,未完待续
*/
public HashTableCuston() {
this(11);
}
public HashTableCuston(int capacity) {
if(capacity < 0){
throw new IllegalArgumentException("Illegal capacity :"+capacity);
}
this.capacity = capacity;
table = new Entry, ?>[capacity];
}
private static class Entry {
int hash;
K key;
V value;
Entry next;
public Entry(int hash, K key, V value, Entry next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public K getKey() {
return key;
}
public V getValue() {
return value;
}
}//Entry
/**
* 根据key获取value
* @param key
* @return
*/
public synchronized V get(Object key){
Entry,?>[] tab = table;
int hash = key.hashCode() & 0X7FFFFFF ;
int index = hash % table.length;
for(Entry,?> entry = tab[index];entry != null ;entry = entry.next ){
if( (entry.hash == hash) && (entry.key == entry.key) ){
return (V)entry.value;
}
}
return null;
}
/**
* 放入键值对
*
* @param key
* @param value
* @return
*/
public synchronized V put(K key, V value) {
Entry, ?>[] tab = table;//Entry, ?>是Entry等具体类的父类
int hash = key.hashCode();
int index = (hash & 0X7FFFFFF) % tab.length;
Entry entry = (Entry) tab[index];
//检查有无已存在的key
for (; entry != null; entry = entry.next) {
if ((entry.hash == hash) && entry.key == key) {
V oldValue = entry.value;
entry.value = value;
return oldValue;
}
}
addEntry(hash, key, value, index);
return null;
}
/**
* 创建新的结点
*
* @param hash
* @param key
* @param value
* @param index
*/
private void addEntry(int hash, K key, V value, int index) {
Entry, ?>[] tab = table;
Entry entry = (Entry) tab[index];//之前已存在结点
tab[index] = new Entry<>(hash, key, value, entry);//之前已存在的结点作为后继结点
}
}
测试代码
public static void main(String[] args) {
HashTableCuston hashtable = new HashTableCuston(5);
hashtable.put("one", 1);
hashtable.put("two", 2);
hashtable.put("three", 3);
hashtable.put("four", 4);
hashtable.put("five", 5);
hashtable.put("six", 6);
hashtable.put("seven", 7);
Integer v = hashtable.get("six");//输出6
System.out.println(v);
}
拉链法
如下图所示,将大小为M的数组的每一个元素指向一个链表,链表中的每一个节点都存储散列值为该索引的键值对,这个就是拉链法。
”John Smith”和”Sandra Dee”通过哈希函数指向152这个索引,该索引又指向了一个链表,在链表中依次存储了这两个字符串。
该方法的基本思想就是选择足够大的M,使得所有的链表都尽可能的短小,以保证查找的效率。对采用拉链法的哈希表实现的查找分为两步,首先是根据散列值找到对应的链表,然后沿着链表的顺序找到相应的键。
<2>线性探索法
线性探测法是开放寻址法解决哈希冲突的一种方法,基本原理为,使用大小为M的数组来保存N个键值对,其中M>N,需要使用数组中的空位来解决碰撞冲突。
四、区别
1、继承的父类不同
Hashtable继承自Dictionary类,而HashMap继承自AbstractMap类。二者都实现了Map接口。
2、线程安全性不同
hashMap不安全,hashtable 线程安全。
3、是否提供contains方法
HashMap把Hashtable的contains方法改成containsValue和containsKey;Hashtable则保留了contains,containsValue和containsKey三个方法,其中contains和containsValue功能相同。
4、key和value是否允许null值
其中key和value都是对象,并且不能包含重复key,但可以包含重复的value。
Hashtable中,key和value都不允许出现null值。但是如果在Hashtable中有类似put(null,null)的操作,编译同样可以通过,因为key和value都是Object类型,但运行时会抛出NullPointerException异常
HashMap中,null可以作为键,这样的键只有一个;可以有一个或多个键所对应的值为null。当get()方法返回null值时,可能是 HashMap中没有该键,也可能使该键所对应的值为null。因此,在HashMap中不能由get()方法来判断HashMap中是否存在某个键,而应该用containsKey()方法来判断。
5、两个遍历方式的内部实现上不同
Hashtable、HashMap都使用了 Iterator。而由于历史原因,Hashtable还使用了Enumeration的方式 。
6、hash值不同
哈希值的使用不同,HashTable直接使用对象的hashCode。而HashMap重新计算hash值。
hashCode是jdk根据对象的地址或者字符串或者数字算出来的int类型的数值。
Hashtable计算hash值,直接用key的hashCode(),而HashMap重新计算了key的hash值,Hashtable在求hash值对应的位置索引时,用取模运算,而HashMap在求位置索引时,则用与运算,且这里一般先用hash&0x7FFFFFFF后,再对length取模,&0x7FFFFFFF的目的是为了将负的hash值转化为正值,因为hash值有可能为负数,而&0x7FFFFFFF后,只有符号外改变,而后面的位都不变。
7、内部实现使用的数组初始化和扩容方式不同
HashTable在不指定容量的情况下的默认容量为11,而HashMap为16,Hashtable不要求底层数组的容量一定要为2的整数次幂,而HashMap则要求一定为2的整数次幂。
Hashtable扩容时,将容量变为原来的2倍加1,而HashMap扩容时,将容量变为原来的2倍。
Hashtable和HashMap它们两个内部实现方式的数组的初始大小和扩容的方式。HashTable中hash数组默认大小是11,增加的方式是old*2+1。