目录
一、概念与模型
二、Map的使用
三、Set的说明
一些小练习
四、哈希表
1.概念
2.冲突
2.1、概念
2.2、冲突-->避免
2.3、冲突-->解决
(1)闭散列
(2)开散列
2.4、其他问题
1.概念:
Map 和 set 是一种专门用来进行搜索的容器或者数据结构,其搜索的效率与其具体的实例化子类有关 。以前常见的搜索方式有: ①直接遍历,时间复杂度为O(N) ,元素如果比较多效率会非常慢 ②二分查找,时间复杂度为O(logN),但搜索前必须要求序列是有序的 。上述排序比较适合静态类型的查找,即一般不会对区间进行插入和删除操作了,而现实中的查找比如: ①根据姓名查询考试成绩 ②通讯录,即根据姓名查询联系方式 ③不重复集合,即需要先搜索关键字是否已经在集合中,可能在查找时进行一些插入和删除的操作,即动态查找,那上述两种方式就不太适合了,本博客总结的Map 和 Set 是一种适合动态查找的集合容器。
2.模型:
一般把搜索的数据称为关键字( Key ),和关键字对应的称为值( Value ),将其称之为 Key-value 的键值对,所以模型会有两种:
(1)纯 key 模型 ,如: 有一个英文词典,快速查找一个单词是否在词典中快速查找某个名字在不在通讯录中
(2)Key-Value 模型 ,如: ①统计文件中每个单词出现的次数,统计结果是每个单词都有与其对应的次数:< 单词,单词出现的次数 > ②梁山好汉的江湖绰号:每个好汉都有自己的江湖绰号。
而Map 中存储的就是 key-value 的键值对, Set 中只存储了 Key 。
1.Map 是一个接口类,该类没有继承自 Collection ,该类中存储的是
2. 关于 Map.Entry
3.Map 的常用方法说明:
说明:
TreeMap 和 HashMap 的区别:
Set 与 Map 主要的不同有两点: Set 是继承自 Collection 的接口类, Set 中只存储了 Key
1.一些常用的方法:
1.给定10W个数据,统计每个数据出现的次数
public class TestDemo {
public static Map func(int[] arr){
Map map = new HashMap<>();
for (int x:arr) {
if(map.get(x) == null){
map.put(x,1);
}else{
int val = map.get(x);
map.put(x,val+1);
}
}
return map;
}
public static void main(String[] args) {
int[] arr = new int[10_0000];
Random random = new Random();
for (int i = 0; i < arr.length; i++) {
arr[i] = random.nextInt(1000);
}
Map map = func(arr);
System.out.println(map);
}
}
2.将10W个数据中的数据去重
把数据放到Set即可
public static Set func2(int[] arr){
HashSet set = new HashSet<>();
for (int x:arr) {
set.add(x);
}
return set;
}
3.从10W个数据中找到第一个重复的数据
把数据放到Set中,放之前检查一下,Set中是不是已经有了
public static int func3(int[] arr){
HashSet set = new HashSet<>();
for (int x:arr) {
if(set.contains(x)){
return x;
}
set.add(x);
}
return -1;
}
顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在 查找一个元素时,必须要经过关键码的多次比较 。 顺序查找时间复杂度为 O(N) ,平衡树中为树的高度,即 O(logn ),搜索的效率取决于搜索过程中元素的比较次数。 理想的搜索方法:可以不经过任何比较,一次直接从表中得到要搜索的元素。 如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素。
当向该结构中:
根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放
对元素的关键码进行同样的计算,把求得的函数值当做元素的存储位置,在结构中按此位置取元素比较,若关键码相等,则搜索成功。
该方式即为哈希 ( 散列 ) 方法, 哈希方法中使用的转换函数称为哈希 ( 散列 ) 函数,构造出来的结构称为哈希表 (Hash Table)( 或者称散列表 )
对于两个数据元素的关键字 和 (i != j) ,有 != ,但有: Hash( ) == Hash( ) ,即: 不同关键字通过相同哈 希函数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞 。 把具有不同关键码而具有相同哈希地址的数据元素称为 “ 同义词 ” 。
注意: 由于我们哈希表底层数组的容量往往是小于实际要存储的关键字的数量的,这就导致一 个问题, 冲突的发生是必然的 ,但我们能做的应该是尽量的降低冲突率。
引起哈希冲突的其中一个原因可能是: 哈希函数设计不够合理 。 哈希函数设计原则 :
常见的哈希函数:
注意:哈希函数设计的越精妙,产生哈希冲突的可能性就越低,但是无法避免哈希冲突
降低冲突率的另一个方法: 负载因子调节【负载因子α=存储散列表的元素个数/散列表的长度】
α是散列表装满程度的标志因子。由于表长是定值,α与“填入表中元素的个数”成正比,所以α越大,表明填入表中的元素越多,产生冲突的可能性越大;反之,α越小,表明填入表中的元素越少,产生冲突的可能性越少。实际上,散列表的平均查找长度是α的函数,只是不同处理冲突的方法有不同的函数。对于开放定址法,α是特别重要的因素,应严格限制在0.7~0.8以下,超过0.8,查表时的CPU缓存不命中按照指数曲线上升。因此,一些采用开放定址法的hash库,如Java的系统限制了α为0.75,超过此值将resize散列表
所以当冲突率达到一个无法忍受的程度时,我们需要通过降低负载因子来变相的降低冲突率。
已知哈希表中已有的关键字个数是不可变的,那我们能调整的就只有哈希表中的数组的大小。
解决哈希冲突 两种常见的方法是: 闭散列 和 开散列
也叫开放地址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以 把 key 存放到冲突位置中的 “ 下一个 ” 空位置中去。
如何寻找下一个空位置?
① 线性探测:从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。插入:
②二次探测:
二次探测为了避免线性探测的问题,找下一个空位置的方法为:Hi= (H0+i^2)% m, 或者:Hi= (H0+i^2)% m。其中:i = 1,2,3…,H0是通过散列函数Hash(x) 对元素的关键码 key 进行计算得到的位置,m是表的大小。 对于上面 中如果要插入 44 ,产生冲突,使用解决后的情况为
研究表明:当表的长度为质数且表装载因子a不超过0.5时,新的表项一定能够插入,而且任何一个位置都不会被探查两次。因此只要表中有一半的空位置,就不会存在表满的问题。在搜索时可以不考虑表装满的情况,但在插入时必须确保表的装载因子a不超过0.5,如果超出必须考虑增容。 因此:比散列最大的缺陷就是空间利用率比较低,这也是哈希的缺陷
开散列法又叫链地址法 ( 开链法 ) ,首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。
代码实现:
public class HashBuck {
static class Node{
public int key;
public int val;
public Node next;
public Node(int key, int val){
this.key = key;
this.val = val;
}
}
public Node[] arr;
public int usedSize;
public static final double DEFAULT_LOADFactor = 0.75;
public HashBuck(){
this.arr = new Node[10];
}
public void put(int key, int val){
//找到key所在的位置
int index = key % this.arr.length;
//遍历下标的链表,看看是不是有相同的key,如果有,要更新val
Node cur = arr[index];
while(cur != null){
if(cur.key == key){
cur.val = val;
return;
}
cur = cur.next;
}
//没有key这个元素,头插法插入
Node node = new Node(key,val);
node.next = arr[index];
arr[index] = node;
this.usedSize++;
//插入元素成功后,检查当前散列表的负载因子
if(loadFactor() > DEFAULT_LOADFactor){
resize();//扩容----->不是简单的把数组扩大,数组里面的每个链表的每个元素必须重新进行哈希
//14%10=4 14%20=14
}
}
private void resize(){
Node[] newArr = new Node[arr.length*2];
for(int i = 0; i < this.arr.length; i++){
Node cur = arr[i];
while(cur != null){
int index = cur.key % newArr.length;//获取新的下标
//把cur这个节点,以头插或者尾插的方式插入到新的数组对应下标的链表当中
Node curNext = cur.next;
cur.next = newArr[index];//先绑定前面
newArr[index] = cur;//再绑定后面
cur = curNext;
}
}
arr = newArr;
}
private double loadFactor(){
return 1.0 * usedSize / this.arr.length;
}
public int get(int key){
//找到key所在的位置
int index = key % this.arr.length;
//遍历下标的链表,看看是不是有相同的key,如果有,要更新val
Node cur = arr[index];
while(cur != null){
if(cur.key == key){
return cur.key;
}
cur = cur.next;
}
return -1;
}
}
代码实现改进:
import java.util.HashMap;
import java.util.Objects;
class Person{
public String ID;
public Person(String ID){
this.ID = ID;
}
@Override
public boolean equals(Object o) {
if (this == o) return true;
if (o == null || getClass() != o.getClass()) return false;
Person person = (Person) o;
return Objects.equals(ID, person.ID);
}
@Override
public int hashCode() {
return Objects.hash(ID);
}
@Override
public String toString() {
return "Person{" +
"ID='" + ID + '\'' +
'}';
}
}
public class HashBuck2 {
static class Node{
public K key;
public V val;
public Node next;
public Node(K key, V val){
this.key = key;
this.val = val;
}
}
public Node[] arr = (Node[])new Node[10];
public int usedSize;
public void put(K key, V val){
int hash = key.hashCode();//hashcode()寻找位置
int index = hash % arr.length;
Node cur = arr[index];
while(cur != null){
if(cur.key.equals(key)){//equals()负责查看有没有一样的元素
cur.val = val;
return;
}
cur = cur.next;
}
Node node = new Node(key,val);
node.next = arr[index];
arr[index] = node;
this.usedSize++;
}
//hashcode()一样,equals()不一定一样;equals()一样,hashcode()一定一样
public V get(K key){
int hash = key.hashCode();//hashcode()寻找位置
int index = hash % arr.length;
Node cur = arr[index];
while(cur != null){
if(cur.key.equals(key)){//equals()负责查看有没有一样的元素
return cur.val;
}
cur = cur.next;
}
return null;
}
public static void main(String[] args) {
Person person1 = new Person("123");
Person person2 = new Person("123");
HashBuck2 hashBuck2 = new HashBuck2();
hashBuck2.put(person1,"abc");
System.out.println(hashBuck2.get(person2));
}
}
运行结果:abc
①如果new HashMap(19),bucket数组多大?
②HashMap什么时候开辟bucket数组占用内存的?
③HashMap何时扩容?
最后一个小问题:
求下面的查找成功的平均长度以及查找不成功的平均长度: