抽象感受哈希的优点
如果我现在抛出一个问题:4 对映 do、re、mi、fa、sol、la、si 的哪个音 , 没学过音乐的人应该在一个一个数过去,发现对应fa ,并且如果问题不以文字的形式抛出,可能还会默念4个音然后确定。 对于学过音乐的人来说,他们会瞬间反应出,这是因为 我是一个一个数过去的,而熟悉的人在4 和 fa 之间建立了“映射”。
什么是哈希思想?
哈希思想是一种常用的计算机算法思想,用于将任意长度的数据映射为固定长度的哈希值。它的核心思想是通过哈希函数将输入数据转换为一个唯一的、固定长度的哈希值,该哈希值可以用于快速查找、比较和验证数据。
哈希优点怎么样体现?
将熟悉的几种数据结构对比:
顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为O(N),平衡树中为树的高度,即O( l o g 2 N log_2 N log2N),搜索的效率取决于搜索过程中元素的比较次数。
理想的搜索方法:可以不经过任何比较,一次直接从表中得到要搜索的元素。如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素
什么是哈希(散列)方法?(具体实现哈希思想)
插入元素:
根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放。
搜索元素:
对元素的关键码进行同样的计算,把求得的函数值当做元素的存储位置,在结构中按此位置取元素比较,若关键码相等,则搜索成功
什么是哈希函数?
哈希函数是哈希思想的关键部分,它接受任意长度的输入数据,经过计算后生成一个固定长度的哈希值。
哈希函数设置为:hash(key) = key % capacity;
key已经被hashfunc转化过,hash(key)为最终值
capacity为存储元素底层空间总的大小
什么是哈希表?
利用哈希方法构造出来的结构称为哈希表(Hash Table)
什么是哈希冲突?
不同关键字通过相同哈希哈数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞。
哈希的设计原则?
1.哈希函数的定义域必须包括需要存储的全部关键码,而如果散列表允许有m个地址时,其值域必须在0到m-1之间
2.对于不同的输入数据,哈希函数应该尽可能均匀地分布哈希值,以减少冲突的可能性。
3.哈希函数应该比较简单(指哈希函数本身效率高)
哈希函数设计的越精妙,产生哈希冲突的可能性就越低,但是无法避免哈希冲突
直接定址法–(常用)
取关键字的某个线性函数为散列地址:Hash(Key)= A*Key + B
优点:简单、均匀
缺点:需要事先知道关键字的分布情况
使用场景:适合查找比较小且连续的情况
除留余数法–(常用)
设散列表中允许的地址数为m,取一个不大于m,但最接近或者等于m的质数p作为除数,按照哈希函数:Hash(key) = key% p(p<=m),将关键码转换成哈希地址
其他:
3.平方取中法
4.折叠法
5.随机数法
6.数学分析法
解决哈希冲突两种常见的方法是:闭散列和开散列
闭散列:也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去
线性探测:从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。
删除:采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素会影响其他元素的搜索。比如删除元素4,如果直接删除掉,44查找起来可能会受影响。因此线性探测采用标记的伪删除法来删除一个元素。
开散列:开散列法又叫链地址法(开链法),首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中
语法和基本逻辑的分析于代码的注释中。
在.h文件中,闭散列方法的实现:
#pragma once
#include
#include
using namespace std;
namespace My_Hash
{
enum State
{
EMPTY,
EXITS,
DELETE
};
template<class K, class V>
struct HashData
{
pair<K, V> _kv;
State _state;
};
//Hashfunc是用来确定不同形式Key的值,例如Key为字符串时就调用写的这个仿函数
template<class K, class V, class HashFunc = DefaultHash<K>>
class HashTable
{
typedef HashData<K, V> Data;
private:
vector<HashData<K, V>> _tables;
//有效值的数量
size_t _n = 0;
public:
//Insert函数主要关注点 : 哈希冲突 负载因子 扩容
bool Insert(const pair<K, V> kv)
{
if (Find(kv.first) != nullptr)
{
return false;
}
//哈希因子大于0.7需要重新建表
//注意是对size()而不是对capcity();
if (_tables.size() == 0 || _n * 10 / _tables.size() >= 7)
{
size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;
HashTable<K, V> newHT;
newHT._tables.resize(newSize);
for (auto& e : _tables)
{
if (e._state == EXITS)
{
newHT.Insert(e._kv);
}
}
// ? ? ? 将本对象的_tables与新建对象的_tables交换了
// swap(newHT->_tables , _tables)
newHT._tables.swap(_tables);
}
//仿函数
HashFunc hf;
size_t starti = hf(kv.first);
starti %= _tables.size();
size_t hashi = starti;
size_t i = 1;
// 线性探测
//为什么不自动补全
while (_tables[hashi]._state == EXITS)
{
hashi = starti + i;
++i;
// 防止超出vector长度
hashi %= _tables.size();
}
_tables[hashi]._kv = kv;
_tables[hashi]._state = EXITS;
_n++;
return true;
}
Data* Find(const K& key)
{
if (_tables.size() == 0)
{
return nullptr;
}
HashFunc hf;
size_t strati = hf(key);
strati %= _tables.size();
size_t hashi = strati;
size_t i = 1;
//while (_tables[hashi].state != EMPTY && _tables[hashi].state != DELETE) 错误的
while (_tables[hashi]._state != EMPTY)
{
//!!!!!!!! 1.注意是判K。 2.注意跳DELETE
if (_tables[hashi]._kv.first == key && _tables[hashi]._state != DELETE)
{
return &_tables[hashi];
}
//为啥这样写呢??????又是i又是hashi的
//似乎是为了方便改写为二次探测
//二次探测:下标依次+1、+2、+4、+8、……的方法,为了防止哈希冲突在某一块堆积,影响效率的方法。
//二次探测: hashi = strati + i * i ; 如果要改成这种,插入函数也要改,这种方式只做了解。
hashi = strati + i;
++i;
hashi %= _tables.size();
}
return nullptr;
}
bool Erase(const K& key)
{
Data* ret = Find(key);
if (ret != nullptr)
{
ret->_state = DELETE;
--_n;
return true;
}
else
{
return false;
}
}
};
struct StringHash
{
//仿函数 string为key时比较方法
size_t operator()(const string& key)
{
size_t hash = 0;
for (auto ch : key)
{
//BKDR
hash = hash * 131 + ch;
//如果直接把字符串中所有的字符的ASCII码值相加可能会出现同值,但此字符串不同的情况
//如 "abcde" 与 "ccccc" 两字符串,最终在此仿函数的返回值不会相同
}
return hash;
}
};
template<class K>
struct DefaultHash
{
size_t operator()(const K& key)
{
return (size_t)key;
}
};
//C++11之后,可以用template<>来定义模板的具体实现
//也就是模板特化相关的知识
template<>
struct DefaultHash<string>
{
size_t operator()(const string& key)
{
size_t hash = 0;
for (auto e : key)
{
hash = hash * 131 + e;
}
return hash;
}
};
}
概念介绍:
在C++98中,STL提供了底层为红黑树结构的一系列关联式容器,在查询时效率可达到 l o g 2 N log_2 N log2N,即最差情况下需要比较红黑树的高度次,当树中的节点非常多时,查询效率也不理想。最好的查询是,进行很少的比较次数就能够将元素找到,因此在C++11中,STL又提供了4个unordered系列的关联式容器
unordered_set和unordered_map是标准库中提供的容器,它们基于哈希表实现,用于存储和管理数据。
unordered_set是一个无序的集合容器,其中的元素是唯一的且无序的。它使用哈希函数将元素映射到桶(bucket)中,并使用链表或红黑树来解决哈希冲突(后面模拟实现本文用链表)。由于哈希表的特性,unordered_set提供了高效的元素查找、插入和删除操作,平均时间复杂度为常数。
unordered_map是一个无序的键值对容器,其中的键是唯一的且无序的。它使用哈希函数将键映射到桶中,并使用链表或红黑树来解决哈希冲突。unordered_map提供了高效的键值对的查找、插入和删除操作,平均时间复杂度为常数。
实现方式:开散列 链表
注意点:
语法层面:
1.仿函数运用
2.模板特化运用
3.指针控制(头插)
5.结构体(类)的嵌套问题
6.需要手写析构函数
框架层面:
1.质数标与扩容
2.要分为三个文件完成封装,分别为myHash.h、unordered_set.h、unordered_map.h
以下为myHash.h、文件中的代码:
#pragma once
#include
#include
using namespace std;
//封装
namespace myHashBucket
{
template<class T>
struct HashNode
{
T _data;
HashNode<T>* _next;
HashNode(const T& data)
:_data(data)
, _next(nullptr)
{}
};
//前置声明的作用是什么? ? ? ? ?
template<class K,class T,class KeyOfT,class HashFunc>
class HashTable;
//迭代器
template<class K,class T, class KeyOfT,class HashFunc>
class _HTIterator
{
typedef HashNode<T> Node;
typedef _HTIterator<K, T, KeyOfT, HashFunc> Self;
private:
Node* _node;
HashTable<K, T, KeyOfT, HashFunc>* _pht;
public:
_HTIterator(Node* node, HashTable<K,T,KeyOfT,HashFunc>* pht)
:_node(node)
,_pht(pht)
{}
T& operator*()
{
return _node->_data;
}
Self& operator++()
{
if (_node->_next != nullptr)
{
return _node->_next;
}
else
{
KeyOfT kot; //提取出key
HashFunc hf; //使key可以转为整数比较
size_t hashi = hf(kot(_node->_data)) % _pht->_tables.size();
++hashi;
//找到下一个桶
for (;hashi < _pht->_tables.size(); hashi++)
{
if (_pht->_tables[hashi] != nullptr)
{
_node = _pht->_tables[hashi];
break;
}
}
//没有不为空的桶,用nullptr作为end
//没有不为空的桶则代表改结点为最后一个结点 ? ? ?
//也就是说++ 是不是在_tables的vector中循环的,通俗的说加一圈不能回去……
if (hashi == _pht->_tables.size())
{
_node = nullptr;
}
}
//该类本身就是迭代器类型……
return *this;
}
T* operator->() // ! ! ! ! !
{
return &_node->_data;
}
bool operator!=(const Self& s) const
{
return s._node != _node;
}
bool operator==(const Self& s) const
{
return s._node == _node;
}
};
//template> //为什么不用这样写了
template<class K, class T, class KeyOfT, class HashFunc>
class HashTable
{
//是不是与前置声明有关???? // 是不是与两个类相互包含有关 ? ? ? ? ?
//这里声明友元为什么要这样写? ? ? ? ? // 带模板友元类的定义方法是? ? ? ?
template<class K,class T,class KeyOfT,class HashFunc>
friend class _HTIterator;
//在此情况下这样定义友元会报错
//friend class _HTIterator;
typedef HashNode<T> Node;
//我擦,这个还不能在私有里typedef //在私有里定义外部不能通过
//typedef typename myHashBucket::HashTable, MapKeyOfT, HashFunc>::iterator的方式访问
//
/*typedef _HTIterator iterator;*/ //这个
/*private:*/
public:
typedef _HTIterator<K, T, KeyOfT, HashFunc> iterator;
vector<Node*> _tables;
size_t _n = 0;
public:
iterator begin()
{
for (size_t i = 0; i < _tables.size();++i)
{
Node* cur = _tables[i];
if (cur != nullptr)
{
//为什么可以传this? ? ? ? ? 因为this就是该对象的地址,符合iterator的参数
return iterator(cur,this);
}
}
//注意这里是调用了构造函数,不要和模板混淆了……
return iterator(nullptr, this);
}
iterator end()
{
return iterator(nullptr, this);
}
~HashTable()
{
for (size_t i = 0; i < _tables.size(); i++)
{
Node* cur = _tables[i];
while (cur != nullptr)
{
Node* next = cur->_next;
delete cur;
cur = next;
}
_tables[i] = nullptr;
}
}
//bool Insert(const T& data)
//{
// HashFunc hf;
// KeyOfT kot;
// if (Find(kot(data))
// {
// return false;
// }
// // 哈希桶法负载因子 == 1 时 扩容 ?
// //扩容的思路为:计算要新size的大小,创建一个新表,遍历旧表的元素,
// //并对遍历的有效元素调用insert函数进入新表。最后利用swap将新表换入。
// if (_tables.size() == _n)
// {
// size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;
// HashTable newHT;
// newHT._tables.resize(newSize, nullptr);
// for (size_t i = 0; i < _tables.size(); ++i)
// {
// Node* cur = _tables[i];
// while (cur != nullptr)
// {
// newHT.Insert(cur->_kv);
// cur = cur->_next;
// }
// }
// // ! ! ! ! !
// //newHT._tables 和 原_tables互换了代表的vector
// newHT._tables.swap(_tables);
// }
// //仿函数
// HashFunc hf;
// size_t hashi = hf(kv.first);
// hashi %= _tables.size();
// //用头插法入对应的桶
// //为啥不用尾插法? // 因为那样还要遍历找到改桶的尾节点,影响效率
// // ! ! ! ! ! 注意new的使用
// Node* newnode = new Node(kv);
// newnode->_next = _tables[hashi];
// _tables[hashi] = newnode;
// ++_n;
// return true;
//}
// !!!!!!!!!!!!!!!!!!!!!!!!1
//质数表
size_t GetNextPrime(size_t prime)
{
const int PRIMECOUNT = 28;
static const size_t primeList[PRIMECOUNT] =
{
53ul, 97ul, 193ul, 389ul, 769ul,
1543ul, 3079ul, 6151ul, 12289ul, 24593ul,
49157ul, 98317ul, 196613ul, 393241ul, 786433ul,
1572869ul, 3145739ul, 6291469ul, 12582917ul, 25165843ul,
50331653ul, 100663319ul, 201326611ul, 402653189ul, 805306457ul,
1610612741ul, 3221225473ul, 4294967291ul
};
// 获取比prime大那一个素数
size_t i = 0;
for (; i < PRIMECOUNT; ++i)
{
if (primeList[i] > prime)
return primeList[i];
}
return primeList[i];
}
pair<iterator,bool> Insert(const T & data)
{
HashFunc hf;
KeyOfT kot;
iterator pos = Find(kot(data));
if (pos != end())
{
return make_pair(pos,false);
}
//负载因子为1时 扩容
if (_tables.size() == _n)
{
/*size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;*/
size_t newSize = GetNextPrime(_tables.size());
if(newSize != _tables.size())
{
vector<Node*> newTable;
newTable.resize(newSize, nullptr);
for (size_t i = 0; i < _tables.size(); ++i)
{
Node* cur = _tables[i];
//这个写的有点巧妙,大概就是把原_tables桶里的每个结点依次头插入新_tables中。
//! ! ! ! !
while (cur != nullptr)
{
Node* next = cur->_next;
size_t hashi = hf(kot(cur->_data)) % newSize;
cur->_next = newTable[hashi];
newTable[hashi] = cur;
cur = next;
}
//i = size() 时 end
_tables[i] = nullptr;
}
newTable.swap(_tables);
}
}
size_t hashi = hf(kot(data));
hashi %= _tables.size();
//头插
Node* newnode = new Node(data);
newnode->_next = _tables[hashi];
_tables[hashi] = newnode;
++_n;
/*return true;*/
return make_pair(iterator(newnode, this), false);
}
iterator Find(const K& key)
{
//为啥不这样写? ? ? ? ?
/*if (_n == 0 )
{
return nullptr
}*/
if (_tables.size() == 0)
{
return iterator(nullptr,this);
}
//在此加仿函数……
KeyOfT kot;
HashFunc hf;
//话说哈希桶有必要加这个仿函数吗?(个人思考)
//对于开散列法,写仿函数使不同形式的key都可以转为整数从而在vector中找到对应位置
//在哈希桶方法中也有这个需求,故还是要写仿函数.
size_t hashi = hf(key);
/*size_t hashi = key;*/
hashi = hashi % _tables.size();
Node* cur = _tables[hashi];
while (cur != nullptr)
{
/*if(cur->_kv.first == key)*/
if (kot(cur->_data) == key)
{
return iterator(cur,this);
}
cur = cur->_next;
}
return iterator(nullptr, this);
}
bool Erase(const K& key)
{
if (_tables.size() == 0)
{
return false;
}
HashFunc hf;
KeyOfT kot;
size_t hashi = hf(key);
hashi %= _tables.size();
//! ! ! ! !
Node* prev = nullptr; //要记录前一个结点
Node* cur = _tables[hashi];
while (cur != nullptr)
{
if (kot(cur->_data) == key)
{
if (prev == nullptr)
{
_tables[hashi] = cur->_next;
}
else
{
prev->_next = cur->_next;
}
delete cur;
--_n;
return true;
}
prev = cur;
cur = cur->_next;
}
return false;
}
//是vector的size。不是有效结点数
size_t tables_size()
{
return _tables.size();
}
};
template<class K>
struct DefaultHash
{
size_t operator()(const K& key)
{
return (size_t)key;
}
};
//C++11之后,可以用template<>来定义模板的具体实现
//也就是模板特化相关的知识
template<>
struct DefaultHash<string>
{
size_t operator()(const string& key)
{
size_t hash = 0;
for (auto e : key)
{
hash = hash * 131 + e;
}
return hash;
}
};
}
unordered_set.h文件中:
namespace myUnordered_set
{
//
template<class K , class HashFunc = myHashBucket::DefaultHash<K>>
class unordered_set
{
private:
//这个好像还必须写在 SetKeyOfT 仿函数之后
/*myHashBucket::HashTable _ht;*/
//仿函数
struct SetKeyOfT
{
const K& operator()(const K& key)
{
return key;
}
};
成员变量
//myHashBucket::HashTable _ht;
public:
typedef typename myHashBucket::HashTable<K, K, SetKeyOfT, HashFunc>::iterator iterator;
iterator begin()
{
return _ht.begin();
}
iterator end()
{
return _ht.end();
}
pair<iterator,bool> insert(const K& key)
{
return _ht.Insert(key);
}
iterator find(const K& key)
{
return _ht.Find(key);
}
bool erase(const K& key)
{
return _ht.Erase(key);
}
private:
myHashBucket::HashTable<K, K, SetKeyOfT, HashFunc> _ht;
};
}
unordered_map.h文件中:
#pragma once
#include"Hash.h"
namespace myUnorderer_map
{
template<class K,class V ,class HashFunc = myHashBucket::DefaultHash<K>>
class unordered_map
{
private:
struct MapKeyOfT
{
const K& operator()(const pair<K, V>& kv)
{
return kv.first;
}
};
myHashBucket::HashTable<K, pair<K, V>, MapKeyOfT, HashFunc> _ht;
public:
typedef typename myHashBucket::HashTable<K, pair<K, V>, MapKeyOfT, HashFunc>::iterator iterator;
iterator begin()
{
return _ht.begin();
}
iterator end()
{
return _ht.end();
}
pair<iterator, bool> insert(const pair<K, V>& kv)
{
return _ht.Insert(kv);
}
iterator find(const K& key)
{
return _ht.Find(key);
}
bool erase(const K& key)
{
return _ht.Erase(key);
}
//一个具有insert、find、修改功能的 [] ;
V& operator[](const K& key)
{
//因为不确定V是什么类型,所以调用其构造函数
pair<iterator, bool> ret = insert(make_pair(key, V()));
return ret.first->second;
}
};
}