11.并发容器类一

  1. HashMap的实现
  • 数据要存储
    涉及到数据结构:数组、链表、栈、树、队列等等(发现hashmap使用的数组)
  • 数组的插入和查找
    • 顺序查找:插入时按先后顺序插入,查找时轮询扫描进行对比
    • 二分查找:插入时进行排序;查找时将N个元素分成大致相等的两部分,减少复杂度
    • 分块查找:分块朝朝时二分查找和顺序查找的一种改进
    • 哈希表:对元素的关键信息进行hash运算(针对是key),然后得出的数值,求出下表后直接插入或查找。常用的求下表的实现时除留余数法(hashmap使用的方式)
    • 除留余数法:例如计算出hash值是8当前用于存储的数组长度是6,那这个除留余数法算出来就是2
  • 非线程安全
  • 哈希冲突,数组位置已存在值
    hash(key2)=hash(key1)。链地址法;ReHash1(key2)再次计算hash;
  • 合理控制数组和链表的长度:动态扩容resize()
  • JAVA8更新:链表中元素超过一个数量(8)后,转变为红黑树结构,而且只是当前链表变为红黑树,而不是所有链表都变化


    1.png

如上图发现,除留余数法会同时出现不同的key算出来的余数相同即对应下标相同,如果相同首先判断是否有存数据,存了就创建链表,一层层关联;但是链表太长,虽然很容易定位(除留余数法)数组的下标,但是该下标对应的链表还是要详细比较(全比较而不是除留余数法了);所以链表太长性能也低;针对这个问题,hashmap进行了阈值判断,达到阈值系数计算的值对应的个数,则自动扩容,2阈值的形式扩容;扩容之后会重新计算之前的数据的下标等等。

  1. ConcurrentHashMap
    线程安全的hashmap
  • HashTable
    进入HashTable源码可以发现,是使用同步关键字实现的,而且是在方法上使用同步关键字,虽然线程安全,但是性能低,不推荐使用

  • 实现方式JDK1.7


    2.png

如上图可知,1.7中实现方式是数组,数组内部默认16个segment,而且该数组不可扩容,存储查询操作同样使用除留余数法从而确定下标,只是此处segment不存储具体信息,内部包含一个lock,真正存储数据的是该segment对应的数组(没错,和hahsmap不同,此处使用的是双重数组的形式),如果内部的entry和hashmap其他操作相同。可发现,能同时容乃16个线程互不干扰的操作数据,虽然进入具体segment的lock之后还是需要加锁排队但是性能已经相比hashtable提高不少。

  • 实现方式JDK1.8


    3.png

如上图可知,1.8实现方式还是数组和链接形式类似于hashmap的实现,完全不同于1.7的实现,性能又提升一大步。其实这里也是除留余数法,首先判断在第一层数组是不是已经包含,不包含的时候为了保证线程安全也是通过cas无锁操作实现的,性能高;而且为了避免对应的下级链表过长,此处数组也是会扩容的,从而避免链表过长。而如果发现数组已经保存了,则进链表进行判断,此时是通过同步关键字实现同步,因为有扩容,所以一般在第一级数组的cas处大部分已经存储了,虽然相比之下,同步关键字的性能低,但是因为进入链表的频率小,所以综合考虑性能相比1.7的实现方式更高效,而且因为可以动态扩容,理论上远不止16个并发操作,查询和增删都更快。

  1. Thread-yield
    Thread.yield()不会占用资源,会适当让出cpu,例如再while循环中可以使用Thread.yield从而达到不抢占CPU资源,导致CPU使用率飙高的问题

  2. ConcurrentSkipListMap
    特点:有序链表实现,无锁实现;value不能为空;层级越高跳跃性越大,数据越少,查询理论变快。

  • 通过cas实现线程安全
  • 新的node是否抽出来作为index,随机决定;
  • index对应的level由随机数决定(随机数比特位连续为1的数量)
  • 每层的元素,headindex固定为所有node中最小的
  • 查找数据时按照从上到下,从左往右的顺序查找
  • 时间复杂度O(log n),空间复杂度O(n)
  • 空间换时间,数据库索引类似的概念,skiplist在很多开源组件中有使用(level DB,redis)
4.png

如上图所示:真实存储数据是通过最下面一层的链表,但是链表过长的时候不论是查找还是插入都很麻烦,必须循环遍历;这时候会自动生成一个随机数(如果是偶数则创建索引,注意不是都创建,也不是隔一个创建一个);通过这个随机数创建索引之后索引内部也保存下面的node节点即node的映射关系,方便查找;但是此时发现,如果索引很多的话,同样会有数据多类似的问题;这时候提出了索引分级解决方案;即生成的随机数偶数则创建索引,但是根据这个随机数的二进制连续为1的数量去把索引分成很多层级,这样一个开始不论是查找还是增删除,从入口的head index一旦开始,会从最上级的层级索引开始通过判断大小,新的数据大则往右继续找索引,如果右边没有索引了则通过down向下一级找索引,最终进去最底层的node处对比数据。可知,数据量越大,相比于循环查找速度就越快。

 ConcurrentSkipListMap concurrentSkipListMap=new ConcurrentSkipListMap<>(new Comparator() {
            @Override
            public int compare(String o1, String o2) {
                //可以通过这种方式自定义key
                return 0;
            }
        });
  1. 面试题-比较
public class HashMapDemo {
    public static void main(String[] args) {
        HashMapmap=new HashMap<>();
        User user=new User("tony");
        map.put(user,"test");
        System.out.println(map.get(user));//test
        user=new User("tony");
        System.out.println(map.get(user));//重写 hashcode和equals方法返回test,否则返回null
    }
}

class User{
    public String name;

    public User(String name) {
        this.name=name;
    }

    @Override
    public boolean equals(Object obj) {
        return name.equals(((User)obj).name);
    }

    @Override
    public int hashCode() {
        return name.hashCode();
    }
}

说明:如果不重写hashcode和equals方法,则上面的第二个输出应该是null;之所以如此,是因为,hashmap的实现,其中需要用到hashcode方法计算哈希值然后计算数组下标;而且进入链表之后也会需要使用equals方法判断是否相等,然后进行相关存储和取出操作

你可能感兴趣的:(11.并发容器类一)