Java1.8-HashSet-LinkedHashSet-TreeSet源码解析

HashSet

  参考API文档,HashSet继承了AbstractSet类,实现了Set接口,由Hash表支持(实际上就是一个HashMap的实例)。HashSet不保证该类中set的遍历顺序,也并不保证set中数据顺序的永久不变。

  • HashSet允许存储空值,如果有空值,有且仅有一个。
  • 注意,Hashset没有实现同步,即不是线程安全的,如果多个线程同时访问一个哈希集合,并且至少有一个线程修改的话,
  • 必须要在外部进行同步;这通常是通过对自然封装该set的对象执行同步操作来完成的。如果不存在这样的对象,则应该使用 Collections.synchronizedSet 方法来封装set。最好在创建时完成这一操作,以防止对该set进行意外的不同步访问:
  • Set s = Collections.synchronizedSet(new HashSet(...));
  • 注意Hash Set的remove操作,如果在遍历的时候进行删除操作,可能会发生ConcurrentModificationException异常;
  • 所以进行remove的时候,尽量使用Hashset自己的迭代器进行删除,即Iterator;在并发修改的情况下,迭代器将会很快失败;
继承关系
public class HashSet
    extends AbstractSet
    implements Set, Cloneable, java.io.Serializable
属性
// HashSet的底层是通过HashMap来实现的,并且该HashMap字段是transient类型的, 无法序列化
private transient HashMap map;

// 定义该HashMap的value为一个静态无法被修改的虚拟值,因为HashSet中只需要用到key,
// 而HashMap是key-value键值对.所以,向map中添加键值对时,键值对的值固定是PRESENT
private static final Object PRESENT = new Object();

/**
 * 默认构造函数,底层初始化一个HashMap,hashMap的初始容量是16,负载因子是0.75
 */
public HashSet() {
    map = new HashMap<>();
}

/**
   *集合转换为HashSet的构造函数, 分为两步操作:
   * 
   * 1. 返回(c.size()/.75f) + 1 和 16两者比较大的数字,为什么呢?
   * 因为HashMap的默认初始容量是16,而负载因子是0.75,HashMap什么时候会扩容呢,是当HashMap
   * 的阈值即(初始容量*负载因子) 大于HashMap实际大小的时候,HashMap就会扩容,所以(c.size()/.75f) +1即是实际的大小;
   * 
   * 2. 将集合c的元素全部添加到HashSet中;
   * 
   * 如果参数c为null,将会抛出空指针异常;
 */
public HashSet(Collection c) {
    map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));
    addAll(c);
}

/**
 * 构造一个指定容量和负载因子的hashMap,
 * 如果初始容量或者负载因子小于0,则抛出IllegalArgumentException异常
 */
public HashSet(int initialCapacity, float loadFactor) {
    map = new HashMap<>(initialCapacity, loadFactor);
}

/**
 * 构造一个指定容量的HashMap,默认负载因子是0.75
 * 如果初始容量小于0,则抛出IllegalArgumentException异常
 */
public HashSet(int initialCapacity) {
    map = new HashMap<>(initialCapacity);
}

/**
 * 构造一个指定容量和负载因子的HashSet,使用LinkedHashMap实现,这个方法不对外,只是应用于 LinkedHashSet 。
 * 其中参数dummy无实际意义,只是一个标志而已,请忽略。
 */
HashSet(int initialCapacity, float loadFactor, boolean dummy) {
    map = new LinkedHashMap<>(initialCapacity, loadFactor);
}
方法

  HashSet中方法的实现基本都是通过HashMap来实现的,所以只要了解了HashMap,自然就明白了HashSet的方法。

不过,JDK1.8新增了一个spliterator方法:这个方法返回一个迭代器,这种迭代器被成为可分割迭代器,是Java为了并行遍历数据元素而设计的。而原先的迭代器Iterator是一种顺序迭代器,这两种迭代器可以放在一起理解。而有关并行迭代器,后续会专门有一篇文章来讲述。

public Spliterator spliterator() {
        return new HashMap.KeySpliterator(map, 0, -1, 0, 0);
    }
LinkedHashSet
public class LinkedHashSet
    extends HashSet
    implements Set, Cloneable, java.io.Serializable {

LinkedHashSet继承自HashSet,所有的构造方法都会调用父类HashSet的一个构造方法,使用底层的LinkedHashMap去实现功能。

HashSet(int initialCapacity, float loadFactor, boolean dummy) {
        map = new LinkedHashMap<>(initialCapacity, loadFactor);
    }
TreeSet
public class TreeSet extends AbstractSet
    implements NavigableSet, Cloneable, java.io.Serializable
/**
 * 不是public的构造方法,不对外开放,供其他公有构造方法调用
 */
TreeSet(NavigableMap m) {
    this.m = m;
}

public TreeSet() {
    this(new TreeMap());
}

  TreeSet默认构造方法就是new一个TreeMap,TreeSet中使用了一个NavigableMap变量来保存数据,而TreeMap又是实现了NavigableMap,这样可以多态的方式使用TreeMap来处理TreeSet。

总结

  1. HashSet是完全基于HashMap实现的;
  2. HashSet无序,无法保存重复数据,HashSet非线程安全,如果要使HashSet线程安全,可以使用Collections.synchronizedSet方法来实现;
  3. 对于HashSet中保存的对象,请注意正确重写其equals和hashCode方法,以保证放入的对象的唯一性。
  4. 对LinkedHashSet来讲,和HashSet与HashMap的关系类似,LinkedHashSet底层是通过LinkedHashMap来实现的,只要搞懂了LinkedHashMap,自然就懂了LinkedHashSet。
  5. TreeSet也是同样的,TreeSet底层也是通过相应的TreeMap来实现的。

你可能感兴趣的:(Java1.8-HashSet-LinkedHashSet-TreeSet源码解析)