Set接口同样是Collection接口的一个字接口,他表示数学意义上的集合概念。Set中不包含重复的元素,即Set中不存在两个这样e1和e2, 使得e1.equals(e2)为true。由于Set接口提供的数据结构是数学意义上集合概念的抽象,因此他需要支持对象的添加、删除,而不需要提供随机访问。
按照定义,Set接口继承Collection接口,而且他不允许集合中存在重复项。所有原始方法都是现成的,没有引入新的方法。具体的Set实现类依赖添加的对象的equals()方法来检查等同性。
HashSet类和TreeSet类
“集合框架”支持Set接口两种普通的实现:HashSet和TreeSet。在更多的情况下,会使用HashSet存储重复自由的集合。考虑到效率,添加到HashSet的对象需要采用恰当分配散列码的方式实现hashCode()方法。虽然大多是系统类覆盖了Object中缺省的hashCode()实现,但创建自己的要添加到HashSet的类时,别忘了覆盖hashCode()方法。当您要从集合中有序的方式抽取元素时,TreeSet实现会有用处。为了顺利进行,添加到TreeSet的元素必须是可排序的。
我们先来分析一下HashSet,和他的名字一样HashSet是由HashMap来实现的。
private transient HashMap map;
private static final Object PRESENT = new Object();
public HashSet() {
map = new HashMap<>();
}
public HashSet(Collection extends E> c) {
map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));
addAll(c);
}
public HashSet(int initialCapacity, float loadFactor) {
map = new HashMap<>(initialCapacity, loadFactor);
}
public HashSet(int initialCapacity) {
map = new HashMap<>(initialCapacity);
}
HashSet(int initialCapacity, float loadFactor, boolean dummy) {
map = new LinkedHashMap<>(initialCapacity, loadFactor);
}
HashSet使用了HashMap来做内部的实现,使用HashMap的键来作为数据的储存位置,HashMap的值都储存同一个值。
public Iterator iterator() {
return map.keySet().iterator();
}
public int size() {
return map.size();
}
public boolean isEmpty() {
return map.isEmpty();
}
public boolean contains(Object o) {
return map.containsKey(o);
}
public boolean add(E e) {
return map.put(e, PRESENT)==null;
}
public boolean remove(Object o) {
return map.remove(o)==PRESENT;
}
public void clear() {
map.clear();
}
所有的操作都是围绕HashMap来实现的。TreeSet也是使用TreeMap实现的
private transient NavigableMap m;
TreeSet(NavigableMap m) {
this.m = m;
}
public TreeSet() {
this(new TreeMap());
}
public TreeSet(Comparator super E> comparator) {
this(new TreeMap<>(comparator));
}
public TreeSet(Collection extends E> c) {
this();
addAll(c);
}
Set不懂的东西看Map?
Map是一个接口,一个Map不能包含重复的key,每个key只能映射唯一的value.
Map接口一个提供三个视图,1.key的集合,2.value的集合,3.key-value的集合。map内元素顺序取决于Iterator的具体实现,获取集合视图其实是获取一个迭代器,实现对遍历元素细节的隐藏。TreeMap类能保证遍历元素的顺序,而HashMap就无法保证元素的顺序。
int size();//返回map中key-value映射的数量
boolean isEmpty();//如果map中没有key-value映射返回true
//如果map不含key映射,返回false,当key的类型不符合,抛出ClassCastException,当key是
//null且该map不支持key的值是null时,抛出NullPointerException
boolean containsKey(Object key);
//如果map含有一个以上的key映射的参数value,返回true,异常抛出的情况和containKey一样
boolean containsValue(Object value);
//根据key得到对应的value,如果没有对应的映射,返回null,如果map允许value为null,返回
//null可能是有一对key-null的映射或没有对应的映射
V get(Object key);
//往map放入一对key-value映射
V put(K key, V value);
//根据key删除对应映射
V remove(Object key);
//复制一份与参数一样的map
void putAll(Map extends K, ? extends V> m);
//清空map中所有的映射
void clear();
//返回map中所有key的集合
Set keySet();
//返回map中所有value的集合
Collection values();
//返回key-value的集合
Set<Map.Entry> entrySet();
//比较调用者与参数是否相等
boolean equals(Object o);
//计算map的hash code
int hashCode();
//还有其他default方法...,都是jdk1.8发布的
Map有一个内部接口Entry
interface Entry {
//返回对应的key
K getKey();
//返回对应的value
V getValue();
//设置用新value替换旧value,返回值是旧value
V setValue(V value);
//如果两个entry的映射一样,返回true
boolean equals(Object o);
//计算entry的hash code
int hashCode();
//下面的静态方法是JDK1.8才发布的
//返回一个比较器,比较的规则是key的自然大小
public static super K>, V> Comparator> comparingByKey() {
return (Comparator> & Serializable)
(c1, c2) -> c1.getKey().compareTo(c2.getKey());//这里用的是lambda表达式
}
//返回一个比较器,比较规则是value的自然大小
public static super V>> Comparator> comparingByValue() {
return (Comparator> & Serializable)
(c1, c2) -> c1.getValue().compareTo(c2.getValue());
}
//返回一个比较器,比较规则用参数传入,比较的是key
public static Comparator> comparingByKey(Comparator super K> cmp) {
Objects.requireNonNull(cmp);
return (Comparator> & Serializable)
(c1, c2) -> cmp.compare(c1.getKey(), c2.getKey());
}
//返回一个比较器,比较规则用参数传入,比较的是value
public static Comparator> comparingByValue(Comparator super V> cmp) {
Objects.requireNonNull(cmp);
return (Comparator> & Serializable)
(c1, c2) -> cmp.compare(c1.getValue(), c2.getValue());
}
}
HashMap基于哈希表的Map接口实现。此实现提供所有可选的映射操作,并允许使用null值和null键。(除了不同步和允许使用null之外,HashMap类与HashTable大致相同)此类不保证映射的顺序,特别是他不保证该顺序恒久不变。
HashMap的数据结构
HashMap的底层主要是基于数组和链表和红黑树来实现的,他之所以有相当快的查询速度主要是因为他是通过计算散列码来决定储存位置。HashMap中主要是通过key的hashCode来计算hash值的。只要hashCode值是相同的,计算出来的hash值就一样。如果储存的对象过多了,就有可能不同的对象所算出来的hash值是相同的,这就是所谓的hash冲突。HashMap是使用链表来解决hash冲突的
图中0到11部分代表hash表,也称为hash数组,数组的每个元素都是一个单链表的头结点,链表是用来解决冲突的,如果不同的key映射到了数组同一个位置处就将其放入单链表中。当单链表的节点个数超过8的时候会转换成红黑树。
HashMap的继承关系:
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable
继承自父类AbstractMap,实现了Map,Cloneable,Serializable接口。其中,Map接口定义了一组通用的操作;Cloneable接口则表示可以进行拷贝,在HashMap中实现的是浅层次的拷贝,即对拷贝对象的改变会影响被拷贝的对象;Serializable接口表示HashMap实现了序列化,即可以将HashMap对象保存至本地,之后可以恢复状态。
类的属性
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {
// 序列号
private static final long serialVersionUID = 362498820763181265L;
// 默认的初始容量是16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
// 最大容量 2的30次方
static final int MAXIMUM_CAPACITY = 1 << 30;
// 默认的填充因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
// 当桶(bucket)上的结点数大于这个值时会转成红黑树
static final int TREEIFY_THRESHOLD = 8;
// 当桶(bucket)上的结点数小于这个值时树转链表
static final int UNTREEIFY_THRESHOLD = 6;
// 当要将Hash链表转换成红黑树的时候,最少需要的Hash的Table的长度。
static final int MIN_TREEIFY_CAPACITY = 64;
// 存储元素的数组,总是2的幂次倍
transient Node[] table;
// 存放具体元素的集
transient Set> entrySet;
// 存放元素的个数,注意这个不等于数组的长度。
transient int size;
// 每次扩容和更改map结构的计数器
transient int modCount;
// 临界值 当实际大小(容量*填充因子)超过临界值时,会进行扩容
int threshold;
// 填充因子
final float loadFactor;
}
然后就是类的构造函数HashMap(int,float)
public HashMap(int initialCapacity, float loadFactor) {
// 初始容量不能小于0,否则报错
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
// 初始容量不能大于最大值,否则为最大值
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
// 填充因子不能小于或等于0,不能为非数字
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
// 初始化填充因子
this.loadFactor = loadFactor;
// 初始化threshold大小
this.threshold = tableSizeFor(initialCapacity);
}
说明:tableSizeFor(initialCapacity)返回大于initialCapacity的最小的二次幂数值。
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
关于上面方法的具体实现过程:
先来假设n的二进制为01xxx…xxx。接着
对n右移1位:001xx…xxx,再位或:011xx…xxx
对n右移2为:00011…xxx,再位或:01111…xxx
此时前面已经有四个1了,再右移4位且位或可得8个1
同理,有8个1,右移8位肯定会让后八位也为1。
综上可得,该算法让最高位的1后面的位全变为1。
最后再让结果n+1,即得到了2的整数次幂的值了。
现在回来看看第一条语句:int n = cap - 1;
让cap-1再赋值给n的目的是另找到的目标值大于或等于原值。例如二进制1000,十进制数值为8。如果不对它减1而直接操作,将得到答案10000,即16。显然不是结果。减1后二进制为111,再进行操作则会得到原来的数值1000,即8。
* HashMap(int)型构造函数。*
public HashMap(int initialCapacity) {
// 调用HashMap(int, float)型构造函数
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
HashMap()型构造函数。
public HashMap() {
// 初始化填充因子
this.loadFactor = DEFAULT_LOAD_FACTOR;
}
HashMap(Map extends K>)
型构造函数。
public HashMap(Map extends K, ? extends V> m) {
// 初始化填充因子
this.loadFactor = DEFAULT_LOAD_FACTOR;
// 将m中的所有元素添加至HashMap中
putMapEntries(m, false);
}
说明:putMapEntries(Map extends K, ? extends V> m, boolean evict)
函数将m的所有元素存入本HashMap实例中。
final void putMapEntries(Map extends K, ? extends V> m, boolean evict) {
int s = m.size();
if (s > 0) {
// 判断table是否已经初始化
if (table == null) { // pre-size
// 未初始化,s为m的实际元素个数
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
// 计算得到的t大于阈值,则初始化阈值
if (t > threshold)
threshold = tableSizeFor(t);
}
// 已初始化,并且m元素个数大于阈值,进行扩容处理
else if (s > threshold)
resize();
// 将m中的所有元素添加至HashMap中
for (Map.Entry extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
putVal(hash(key), key, value, false, evict);
}
}
}
重要函数分析
put方法
public V put(K key, V value) {
//取得key值的hashCode,然后调用putVal()方法
return putVal(hash(key), key, value, false, true);
}
hash方法
static final int hash(Object key) {
int h;
//如果为空则hash值为零,否则调用对象本身的hashCode方法获得哈希值,然后低十六位和高十六位异或,是的高十六位的变化能映射到低十六位中。
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
putval方法
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node[] tab; Node p; int n, i;
// table未初始化或者长度为0,进行扩容
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// (n - 1) & hash 确定元素存放在哪个桶中,桶为空,新生成结点放入桶中(此时,这个结点是放在数组中)
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
// 桶中已经存在元素
else {
Node e; K k;
// 比较桶中第一个元素(数组中的结点)的hash值相等,key相等
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
// 将第一个元素赋值给e,用e来记录
e = p;
// hash值不相等,即key不相等;为红黑树结点
else if (p instanceof TreeNode)
// 放入树中
e = ((TreeNode)p).putTreeVal(this, tab, hash, key, value);
// 为链表结点
else {
// 在链表最末插入结点
for (int binCount = 0; ; ++binCount) {
// 到达链表的尾部
if ((e = p.next) == null) {
// 在尾部插入新结点
p.next = newNode(hash, key, value, null);
// 结点数量达到阈值,转化为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
// 跳出循环
break;
}
// 判断链表中结点的key值与插入的元素的key值是否相等
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
// 相等,跳出循环
break;
// 用于遍历桶中的链表,与前面的e = p.next组合,可以遍历链表
p = e;
}
}
// 表示在桶中找到key值、hash值与插入元素相等的结点
if (e != null) {
// 记录e的value
V oldValue = e.value;
// onlyIfAbsent为false或者旧值为null
if (!onlyIfAbsent || oldValue == null)
//用新值替换旧值
e.value = value;
// 没有明白实际含义 钩子?
afterNodeAccess(e);
// 返回旧值
return oldValue;
}
}
// 结构性修改
++modCount;
// 实际大小大于阈值则扩容
if (++size > threshold)
resize();
// 插入后回调
afterNodeInsertion(evict);
return null;
}
get函数
public V get(Object key) {
Node e;
//根据hash值来获得相关的value
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
getNode函数
final Node getNode(int hash, Object key) {
Node[] tab; Node first, e; int n; K k;
// table已经初始化,长度大于0,根据hash寻找table中的项也不为空
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 桶中第一项(数组元素)相等
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
// 桶中不止一个结点
if ((e = first.next) != null) {
// 为红黑树结点
if (first instanceof TreeNode)
// 在红黑树中查找
return ((TreeNode)first).getTreeNode(hash, key);
// 否则,在链表中查找
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
resize函数
final Node[] resize() {
// 当前table保存
Node[] oldTab = table;
// 保存table大小
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 保存当前阈值
int oldThr = threshold;
int newCap, newThr = 0;
// 之前table大小大于0
if (oldCap > 0) {
// 之前table大于最大容量
if (oldCap >= MAXIMUM_CAPACITY) {
// 阈值为最大整形
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 容量翻倍,使用左移,效率更高
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
// 阈值翻倍
newThr = oldThr << 1; // double threshold
}
// 之前阈值大于0
else if (oldThr > 0)
newCap = oldThr;
// oldCap = 0并且oldThr = 0,使用缺省值(如使用HashMap()构造函数,之后再插入一个元素会调用resize函数,会进入这一步)
else {
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 新阈值为0
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 初始化table
Node[] newTab = (Node[])new Node[newCap];
table = newTab;
// 之前的table已经初始化过
if (oldTab != null) {
// 复制元素,重新进行hash
for (int j = 0; j < oldCap; ++j) {
Node e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode)e).split(this, newTab, j, oldCap);
else { // preserve order
Node loHead = null, loTail = null;
Node hiHead = null, hiTail = null;
Node next;
// 将同一桶中的元素根据(e.hash & oldCap)是否为0进行分割,分成两个不同的链表,完成rehash
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
单独说一些这一段,我们开始寻找hash的位置的时候是用的e.hash&(n-1),获得了e.hash的二进制低x位的值。(x为n的二进制长度减一)。然后n又是二的次幂数,所以n-1的二进制每一位都是1.然后当重新扩容之后,容量变为原来的两倍,就是(n<<1)所以n的二进制长度加长了一位。当重新确定位置的时候,如果e.hash只在前x位有值,那么还是在原来的位置。否则就加上一个n的二进制长度。
假设以前的e.hash为100010,
n的值为 100000
那么e.hash&(n-1) = 10
e.hash&n = 1;所以应该变换位置
但是如果e.hash为000010
那么 e.hash&(n-1) = 10
而且e.hash&n = 0;所以不用变换位置。
关于从链表扩展成红黑树放到下一个文章中讲解
参考博客:https://www.cnblogs.com/leesf456/p/5242233.html