Ø Map中的每个成员方法由一个关键字(key)和一个值(value)构成。Map接口不直接继承于Collection接口,因为它包装的是一组成对的“键-值”对象的集合,而且在Map接口的集合中也不能有重复的key出现,因为每个键只能与一个成员元素相对应。
Ø Map接口的子接口以及主要实现类有:
子接口:Bindings、ConcurrentMap、ConcurrentNavigableMap、MessageContext、LogicMessageContext、NavigableMap、SOAPMessageMap、SortedMap
实现类:AbstractMap, Attributes,AuthProvider, ConcurrentHashMap, EnumMap,ConcurrentSkipListMap,HashMap, Hashtable, IdentityHashMap, LinkedHashMap, PrinterStateReasons,Properties,Provider, RenderingHints, SimpleBindings, TabularDataSupport,TreeMap,UIDefaults,WeakHashMap
Map接口中定义的方法清单:
Ø Map中定义的方法说明:
在Map接口中定义的通用方法并不是很多。
a) 添加和删除Map中的某个元素
• put(K, V) : 将给定的“键-值”对放入到给定的Map当中
• putAll(Map extends K, ? extends V) : 将指定的Map中的“键-值”对放入到给定的Map当中
• remove(Object key) : 从该集合中移除指定的对象,并返回对应的value
• clear() : 清空Map中的所有对象
b) 查询与Map有关的数据
• int size() : 返回此Map中“键-值”对的个数
• boolean isEmpty() : 判断此Map中“键-值”对的个数是否为0
• boolean containsKey(Object key) : 测试此Map中是否有该key
• boolean containsValue(Object value) : 测试此Map中是否包含该value
• V get(Object key) : 通过指定的key查询Map中对应的value
• Collection
• Set
• Set
HashMap实现了Map、CloneMap、Serializable三个接口,并且继承自AbstractMap类。
HashMap基于hash数组实现,若key的hash值相同则使用链表方式进行保存,详见HashSet中的说明。我引用网上一个名词叫“链表散列”来形容这样的数据结构。
新建一个HashMap时会初始化一个大小为16,负载因子为0.75的空的HashMap。
那么Entry到底是怎么实现的呢?
viewplainprint?
1. static class Entry
2. final K key;
3. V value;
4. Entry
5. final int hash;
6. ......
上面代码其实告诉我们Entry是一个结点,它持有下一个元素的引用,这样就构成了一个链表。
那么,整体上来说HashMap底层就是使用这样一个数据结构来实现的。
我们提到使用Hash,但是Hash值如何与元素的存储建立关系呢?(Hash算法)
在数据结构课中我们学习过Hash的简单算法,就是给你一个Hash因子,通过对该元素的hashCode简单的求余,来实现对其快速的定位和索引。
在HashMap中有这样的代码:
viewplainprint?
1. /**
2. * Returns index for hash code h.
3. */
4. static int indexFor(int h, int length) {
5. return h & (length-1);
6. }
这个方法在HashMap中非常重要,凡是与查询、添加、删除有关的方法中都有调用该方法,为什么这么短的一个代码使用率这么高?根据代码注释我们知道,这个方法是根据hashCode及当前table的长度(数组的长度,不是map的size)得到该元素应该存放的位置,或者在table中的索引。
现在我们需要看一下当数据量已经超过初始定义的负载因子时,HashMap如何处理?
在HashMap中当数据量很多时,并且已经达到了负载限度时,会重新做一次哈希,也就是说会再散列。调用的方法为resize(),并且java默认传入的参数为2*table.length。先看一下JDK源码:
看到这里我们会发现resize(再哈希)的工作量是不是很大啊。再哈希是重新建一个指定容量的数组,然后将每个元素重新计算它要放的位置,这个工作量确实是很大的。
这里就产生了一个很重要的问题,那就是怎么让哈希表的分布比较均匀,也就是说怎么让它即不会成为一个单链表(极限情况,每个key的hash值都集中到了一起),又不会使hash空间过大(导致内存浪费)?
上面两个问题一个是解决了怎么计算hash值快速存取,一个是怎么实现再哈希,何时需要再哈希。快速存取的前提是元素分布均匀,不至于集中到一点,再哈希是元素过于零散,导致不断的重新构建表。
那么在第一个问题中我们看到了这样一个代码return h & (length-1);在第二个问题中我们说过内部调用传入的值为2*table.length;并且默认情况下HashMap的大小为一个16的数字,除了默认构造提供大小为16的空间外,如果我们使用
public HashMap(int initialCapacity,float loadFactor)
上面的构造方法,我们会发现这样的代码:
viewplainprint?
1. // Find a power of 2 >= initialCapacity
2. int capacity = 1;
3. while (capacity < initialCapacity)
4. capacity <<= 1;
5. ……
6. table = new Entry[capacity];
也就是说当我们传入1000时,它并没有给我们构造一个容量为1000的哈希表,而是构建了一个容量为1024大小的哈希表。
从整体上我们发现一个问题,那就是无论什么情况HashMap中哈希表的容量总是2的n次方的一个数。并且有这样一个公式:
当length=2^n时,hashcode& (length-1) == hashcode % length
也就是这一点验证了第一个问题,hash索引值的计算方法其实就是对哈希因子求余。只有大小为2的n次方时,那样的计算才成立,所以HashMap为我们维护了一个这样大小的一个哈希表。(位运算速度比取模运算快的多)
c) HashMap的使用方法:
我在很多代码中都用到了HashMap,原因是首先它符合存储关联数据的要求,其次它的存取速度快,这是一个选择的问题。
比较重要的是HashMap的遍历方法,KeySet,EntrySet。
1. HashMap采用数组方式存储key,value构成的Entry对象,无容量限制。
2. HashMap基于key hash寻找Entry对象存放到数组的位置,对于Hash冲突采用链表的方式来解决。
3. HashMap在插入元素时可能要扩大数组的容量,扩大容量时对所有的数据要重新计算哈希和存放到新数组中。当元素个数size大于threshold扩容threshold = (int)(newCapacity* loadFactor);
4. HashMap保证数组的大小为2的指数大小。
5. HashMap非线程安全。
1. HashMap从java1.2后开始引进。Hashtable从java1.0开始引入。Hashtable一开始基于继承陈旧的抽象类Dictionary实现,后面也实现了Map接口。HashMap基于Map接口实现。
2. HashMap允许存放key为null,value为null。对于key为null时,HashMap首先获取Entry数组中的第一个Entry对象,并基于Entry对象的next遍历链表,当找到其中Entry对象的key属性为null时,更新其value值。如果没有key属性为null的Entry,则调用addEntry(int hash, K key, V value, int bucketIndex),参数为0,null,value,0,增加一个Entry对象,增加时先获取当前数组的第一个Entry对象,记为e,然后创建一个key为null,value为传入值得得Entry对象,next为之前获取的e。数组的第一个Entry对象链表,赋为新创建的Entry对象。由此,addEntry链表倒序插入元素的。Hashtable不允许key为null或value为null,否则会抛出NullPointerException。这从put方法的源码中很容易看出来,置于为什么真么限制,不明白?
3. HashMap是非线程安全;Hashtable是线程安全的,其方法包含synchronized关键字实现线程安全。
4. HashMap的计算hash值方法如下:首先对key取其hashCode,然后通过如下计算:
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h>>> 4);
最后取index时:return h &(length-1);
Hashtable计算hash值,直接去key的hashCode值,如下:
int hash =key.hashCode();
取index时:int index = (hash& 0x7FFFFFFF) % tab.length;
5. HashMap和Hashtable默认构造时,默认容量值不同。
HashMap默认数组大小为16,加载因子为0.75,重新hash阈值为12.
Hashtable默认数组大小为11,加载因子为0.75,重新hash阈值为8.
6. HashMap和Hashtable的数组扩容方式不同。
HashMap中的数组容量大小始终保证为2的指数。重新hash,扩充容量方式为,当前容量大小*2.
Hashtable扩充容量方式为:int newCapacity = oldCapacity * 2 + 1;
7. 一些成员方法不同。
Hashtable包含一些旧的方法,如contains方法。
面试中常会碰到。
LinkedHashMap继承自HashMap并且实现了Map接口。和HashMap一样,LinkedHashMap允许key和value均为null。
于该数据结构和HashMap一样使用到hash算法,因此它不能保证映射的顺序,尤其是不能保证顺序持久不变(再哈希)。
如果你想在多线程中使用,那么需要使用Collections.synchronizedMap方法进行外部同步。
LinkedHashMap与HashMap的不同之处在于,LinkedHashMap维护着运行于所有条目的双向链接列表,此链接列表可以是插入顺序或者访问顺序。
对于LinkedHashMap而言,它继承与HashMap、底层使用哈希表与双向链表来保存所有元素。其基本操作与父类HashMap相似,它通过重写父类相关的方法,来实现自己的链接列表特性。下面我们来分析LinkedHashMap的源代码:
LinkedHashMap采用的hash算法和HashMap相同,但是它重新定义了数组中保存的元素Entry,该Entry除了保存当前对象的引用外,还保存了其上一个元素before和下一个元素after的引用,从而在哈希表的基础上又构成了双向链接列表。看源代码:
Java代码
1. /**
2. * 双向链表的表头元素。
3. */
4. private transient Entry
5.
6. /**
7. * LinkedHashMap的Entry元素。
8. * 继承HashMap的Entry元素,又保存了其上一个元素before和下一个元素after的引用。
9. */
10.private static class Entry
11. Entry
12. ……
13.}
通过源代码可以看出,在LinkedHashMap的构造方法中,实际调用了父类HashMap的相关构造方法来构造一个底层存放的table数组。如:
Java代码
1. public LinkedHashMap(int initialCapacity, float loadFactor) {
2. super(initialCapacity, loadFactor);
3. accessOrder = false;
4. }
HashMap中的相关构造方法:
Java代码
1. public HashMap(int initialCapacity, float loadFactor) {
2. if (initialCapacity < 0)
3. throw new IllegalArgumentException("Illegal initial capacity: " +
4. initialCapacity);
5. if (initialCapacity > MAXIMUM_CAPACITY)
6. initialCapacity = MAXIMUM_CAPACITY;
7. if (loadFactor <= 0 || Float.isNaN(loadFactor))
8. throw new IllegalArgumentException("Illegal load factor: " +
9. loadFactor);
10.
11. // Find a power of 2 >= initialCapacity
12. int capacity = 1;
13. while (capacity < initialCapacity)
14. capacity <<= 1;
15.
16. this.loadFactor = loadFactor;
17. threshold = (int)(capacity * loadFactor);
18. table = new Entry[capacity];
19. init();
20.}
我们已经知道LinkedHashMap的Entry元素继承HashMap的Entry,提供了双向链表的功能。在上述HashMap的构造器
中,最后会调用init()方法,进行相关的初始化,这个方法在HashMap的实现中并无意义,只是提供给子类实现相关的初始化调用。
LinkedHashMap重写了init()方法,在调用父类的构造方法完成构造后,进一步实现了对其元素Entry的初始化操作。
Java代码
1. void init() {
2. header = new Entry
3. header.before = header.after = header;
4. }
LinkedHashMap并未重写父类HashMap的put方法,而是重写了父类HashMap的put方法调用的子方法void addEntry(int hash, Kkey, V value, int bucketIndex) 和voidcreateEntry(int hash, K key, V value, int bucketIndex),提供了自己特有的双向链接列表的实现。
Java代码
1. void addEntry(int hash, K key, V value, int bucketIndex) {
2. // 调用create方法,将新元素以双向链表的的形式加入到映射中。
3. createEntry(hash, key, value, bucketIndex);
4.
5. // 删除最近最少使用元素的策略定义
6. Entry
7. if (removeEldestEntry(eldest)) {
8. removeEntryForKey(eldest.key);
9. } else {
10. if (size >= threshold)
11. resize(2 * table.length);
12. }
13.}
Java代码
1. void createEntry(int hash, K key, V value, int bucketIndex) {
2. HashMap.Entry
3. Entry
4. table[bucketIndex] = e;
5. // 调用元素的addBrefore方法,将元素加入到哈希、双向链接列表。
6. e.addBefore(header);
7. size++;
8. }
Java代码
1. private void addBefore(Entry
2. after = existingEntry;
3. before = existingEntry.before;
4. before.after = this;
5. after.before = this;
6. }
LinkedHashMap重写了父类HashMap的get方法,实际在调用父类getEntry()方法取得查找的元素后,再判断当排序模式accessOrder为true时,记录访问顺序,将最新访问的元素添加到双向链表的表头,并从原来的位置删除。由于的链表的增加、删除操作是常量级的,故并不会带来性能的损失。
Java代码
1. public V get(Object key) {
2. // 调用父类HashMap的getEntry()方法,取得要查找的元素。
3. Entry
4. if (e == null)
5. return null;
6. // 记录访问顺序。
7. e.recordAccess(this);
8. return e.value;
9. }
Java代码
1. void recordAccess(HashMap
2. LinkedHashMap
3. // 如果定义了LinkedHashMap的迭代顺序为访问顺序,
4. // 则删除以前位置上的元素,并将最新访问的元素添加到链表表头。
5. if (lm.accessOrder) {
6. lm.modCount++;
7. remove();
8. addBefore(lm.header);
9. }
10.}
LinkedHashMap定义了排序模式accessOrder,该属性为boolean型变量,对于访问顺序,为true;对于插入顺序,则为false。
Java代码
1. private final boolean accessOrder;
一般情况下,不必指定排序模式,其迭代顺序即为默认为插入顺序。看LinkedHashMap的构造方法,如:
Java代码
1. public LinkedHashMap(int initialCapacity, float loadFactor) {
2. super(initialCapacity, loadFactor);
3. accessOrder = false;
4. }
这些构造方法都会默认指定排序模式为插入顺序。如果你想构造一个LinkedHashMap,并打算按从近期访问最少到近期访问最多的顺序(即访问顺序)来保存元素,那么请使用下面的构造方法构造LinkedHashMap:
Java代码
1. public LinkedHashMap(int initialCapacity,
2. float loadFactor,
3. boolean accessOrder) {
4. super(initialCapacity, loadFactor);
5. this.accessOrder = accessOrder;
6. }
该哈希映射的迭代顺序就是最后访问其条目的顺序,这种映射很适合构建LRU缓存。LinkedHashMap提供了removeEldestEntry(Map.Entry
Java代码
1. protected boolean removeEldestEntry(Map.Entry
2. return false;
3. }
此方法通常不以任何方式修改映射,相反允许映射在其返回值的指引下进行自我修改。如果用此映射构建LRU缓存,则非常方便,它允许映射通过删除旧条目来减少内存损耗。
例如:重写此方法,维持此映射只保存100个条目的稳定状态,在每次添加新条目时删除最旧的条目。
Java代码
1. private static final int MAX_ENTRIES = 100;
2. protected boolean removeEldestEntry(Map.Entry eldest) {
3. return size() > MAX_ENTRIES;
4. }
1. LinkedHashMap继承于HashMap,此链接列表定义了迭代顺序,该迭代顺序可以是插入顺序或者是访问顺序(按从近期访问最少到近期访问最多的顺序)。默认情况下按插入顺序访问,当accessOrder设置为true时,按最后访问顺序遍历数据。
2. LinkedHashMap非线程安全。
3. LinkedHashMap适合做LRU缓存。
TreeMap是一个支持排序的基于红黑树(Red-Black tree)的NavigableMap
实现,非线程安全。TreeMap继承AbstractMap,实现NavigableMap,NavigableMap接口继承SortedMap接口。此实现为 containsKey、get、put 和 remove 操作提供受保证的 log(n) 时间开销。
SortedMap提供关于键的总体排序的Map。该映射是根据其键的自然顺序进行排序的,或者根据通常在创建有序映射时提供的 Comparator 进行排序。对有序映射的 collection 视图(由 entrySet、keySet 和 values 方法返回)进行迭代时,此顺序就会反映出来。
插入SortedMap的所有键都必须实现 Comparable 接口(或者被指定的比较器接受)。另外,所有这些键都必须是可互相比较的:对有序映射中的任意两个键 k1 和 k2 执行 k1.compareTo(k2)(或 comparator.compare(k1, k2))都不得抛出 ClassCastException。试图违反此限制将导致违反规则的方法或者构造方法调用抛出 ClassCastException。
所有通用SortedMap实现类都应该提供 4 个“标准”构造方法:
1) void(无参数)构造方法,它创建一个空的有序映射,按照键的自然顺序(实现Comparable接口,方法compareTo为自然比较方法,按此方法比较大小排序)进行排序。 2) 带有一个 Comparator 类型参数的构造方法,它创建一个空的有序映射,根据指定的比较器进行排序。
3) 带有一个 Map 类型参数的构造方法,它创建一个新的有序映射,其键-值映射关系与参数相同,按照键的自然顺序进行排序。
4) 带有一个 SortedMap 类型参数的构造方法,它创建一个新的有序映射,其键-值映射关系和排序方法与输入的有序映射相同。无法保证强制实施此建议,因为接口不能包含构造方法。
SortedMap新增了一些成员方法,如下图所示:
NavigableMap
将comparator属性赋值为null。如果要控制TreeMap中元素的存储顺序,应使用带Comparator参数的构造器。
先判断root是否为null,如果为null,则创建一个新的Entry对象,并赋值给root属性。否则,首先判断是否传入了Compatator实现,如果是,则基于红黑树的方式遍历,直到为树节点null,使用传入的comparator比较Key的大小,如果找到相等的key则更新其值,若没有找到……,如果comparator为null,则判断key是否为null,如果是null,抛出NullPointerException,对于key不是null时,取key对于的Comparator进行红黑树的遍历和比较,与上述类似。
如果没有找到相同的key,则创建一个新的Entry对象,并将其parent设置为上面所寻找到的元素,并根据和parent key比较的情况设置parent的left和right属性。最后对红黑树进行调整。
ConcurrentHashMap是线程安全的HashMap实现。支持获取,查找时完全并发和更新时可调整并发的哈希表。获取操作(包括 get)通常不会受阻塞。并发场景中(多个线程的情况下) ConcurrentHashMap比HashMap优秀很多。