在C++98中,STL提供了底层为红黑树结构的一系列关联式容器,在查询时效率可达到O(log2N),即最差情况下需要比较红黑树的高度次,当树中的节点非常多时,查询效率也不理想。最好的查询是,进行很少的比较次数就能够将元素找到.
因此在C++11中,STL又提供了4个unordered系列的关联式容器,这四个容器与红黑树结构的关联式容器使用方式基本类似,只是其底层结构不同,本文中只对unordered_map和unordered_set进行介绍,unordered_multimap和unordered_multiset可查看文档介绍。
unordered_map在线文档说明
而unordered_set是存储键值的容器,且键值不允许重复,细节详见unordered_set在线文档说明
unordered系列的关联式容器之所以效率比较高,是因为其底层使用了哈希结构。
顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为O(N),平衡树中为树的高度,即O(logN )(以2为底),搜索的效率取决于搜索过程中元素的比较次数。
理想的搜索方法(O(1)):可以不经过任何比较,一次直接从表中得到要搜索的元素。 如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素。当向该结构中:
该方式即为哈希(散列)方法,哈希方法中使用的转换函数称为哈希(散列)函数,构造出来的结构称为哈希表(Hash Table)(或者称散列表).
不同关键字通过相同哈希哈数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞。
注意:不论如何定义哈希函数,当数据量达到一定范围时,必定会发生哈希冲突,这是无法避免的,只能最大限度的减少哈希冲突的情况。
引起哈希冲突的一个原因可能是:哈希函数设计不够合理。 哈希函数设计原则:
常见哈希函数
1. 直接定制法–(常用)
取关键字的某个线性函数为散列地址:Hash(Key)= A*Key + B 优点:简单、均匀 缺点:需要事先知道关键字的分布情况 使用场景:适合查找比较小且连续的情况
2. 除留余数法–(常用)
设散列表中允许的地址数为m,取一个不大于m,但最接近或者等于m的质数p作为除数,按照哈希函数:Hash(key) = key% p(p<=m),将关键码转换成哈希地址。
3. 平方取中法 —(了解)
假设关键字为1234,对它平方就是1522756,抽取中间的3位227作为哈希地址; 再比如关键字为4321,对它平方就是18671041,抽取中间的3位671(或710)作为哈希地址 平方取中法比较适合:不知道关键字的分布,而位数又不是很大的情况
5. 折叠法–(了解)
折叠法是将关键字从左到右分割成位数相等的几部分(最后一部分位数可以短些),然后将这几部分叠加求和,并按散列表表长,取后几位作为散列地址。
折叠法适合事先不需要知道关键字的分布,适合关键字位数比较多的情况
6. 随机数法–(了解)
选择一个随机函数,取关键字的随机函数值为它的哈希地址,即H(key) = random(key),其中random为随机数函数。
通常应用于关键字长度不等时采用此法
注意:哈希函数设计的越精妙,产生哈希冲突的可能性就越低,但是无法避免哈希冲突。
哈希函数采用处理余数法,被模的key必须要为整形才可以映射处理,此处提供将key转化为整形的方法而整形数据不需要转化
字符串哈希算法
template<class T>
struct Hash //默认的整型类型
{
const T& operator()(const T& data)
{
return data;
}
};
template<>
struct Hash <string> //对字符串类型的特化
{
size_t operator()(const string& data)
{
size_t count = 0;
for (size_t i = 0; i < data.size(); i++)
{
count *= 131; // 这里使用的是 BKDR Hash算法
count += data[i];
}
return count;
}
};
无法避免哈希冲突,那必然就要有解决的方法。
解决哈希冲突两种常见的方法是:闭散列和开散列
闭散列:也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去。那如何寻找下一个空位置呢?而找这个下一个位置,又分为线性探测和二次探测
1.线性探测
比如下面的场景,现在需要插入元素44,先通过哈希函数计算哈希地址,hashAddr为4,因此44理论上应该插在该位置,但是该位置已经放了值为4的元素,即发生哈希冲突。
线性探测:从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。
插入时:
-通过哈希函数获取待插入元素在哈希表中的位置
-如果该位置中没有元素则直接插入新元素,如果该位置中有元素发生哈希冲突,使用线性探测找到下一个空位置,插入新元素
删除时:
采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素会影响其他元素的搜索。比如删除元素4,如果直接删除掉,44查找起来可能会受影响(找44时,计算出的地址在4的位置,但是4才被删除,为空,这时就不知道该如何寻找了)。因此线性探测采用标记的伪删除法来删除一个元素。(可以根据4被删除的状态,知道与要找的44存在哈希冲突,便可以往后面去找)
// 哈希表每个空间给个标记
// EMPTY此位置空, EXIST此位置已经有元素, DELETE元素已经删除
enum State{
EMPTY, EXIST, DELETE};
线性探测优点:实现非常简单
线性探测缺点:一旦发生哈希冲突,所有的冲突连在一起,容易产生数据“堆积”,即:不同关键码占据了可利用的空位置,使得寻找某关键码的位置需要许多次比较,导致搜索效率降低。
2. 二次探测
线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关系,因为找空位置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题,找下一个空位置的方法为:H1 = (H0 + i * i )% m,或者: H1= (H0 - i * i)% m。其中:i = 1,2,3…, 是通过散列函数Hash(x)对元素的关键码 key 进行计算得到的位置,m是表的大小。
哈希表的扩容问题:
散列表的载荷因子定义为: a =填入表中的元素个数/散列表的长度,a是散列表装满程度的标志因子。由于表长是定值,a与“填入表中的元素个数”成正比,所以, a越大,表明填入表中的元素越多,产生冲突的可能性就越大:反之, a越小,标明填入表中的元素越少,产生冲突的可能性就越小。实际上,散列表的平均查找长度是载荷因子a的函数,只是不同处理冲突的方法有不同的函数。
对于开放定址法,荷载因子是特别重要因素,应严格限制在0.7 - 0.8以下。超过0. 8,查表时的CPU缓存不命中( cachemissing)按照指数曲线上升。因此,一些采用开放定址法的hash库,如Java的系统库限制了荷载因子为0.75,超过此值将resize散列表。
扩容流程:
1.开新表
2.遍历旧表的数据,重新计算在新表中位置,在插入到新表里去
3.释放旧表
因此:闭散列(开放地址法)最大的缺陷就是空间利用率比较低,这也是哈希的缺陷。
闭散列实现的哈希表
//哈希冲突解决:
//1.闭散列哈希 也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去
//而找这个下一个位置,又分为线性探测和二次探测
namespace CLOSE_HASH
{
// 哈希表每个空间给个标记
// EMPTY此位置空, EXIST此位置已经有元素, DELETE元素已经删除
enum State{
EMPTY, EXIST, DELETE };
//节点定义
template <class T>
struct HashData
{
T _data;
State _state;
};
template <class K, class T, class KeyOfT>
class HashTable
{
typedef HashData<T> HashData;
public:
KeyOfT koft;
// 负载因子 = 表中数据/表的大小 衡量哈希表满的程度
// 表越接近满,插入数据越容易冲突,冲突越多,效率越低
// 负载因子越小,冲突概率越低,整体效率越高,但是负载因子越小,浪费的空间越大,
// 哈希表并不是满了才增容,开放定制法中,一般负载因子到了0.7左右就开始增容
bool Insert(const T& data)
{
扩容的一般的做法:
//if (_hashtable.size() == 0 || _num * 10 / _hashtable.size() >= 7) //hash表里为空,或者该扩容
//{
// // 1.开2倍大小的新表
// // 2.遍历旧表的数据,重新计算在新表中位置
// // 3.释放旧表
// //1.
// vector<HashData> newtable;
// size_t newtablesize = _hashtable.size() == 0 ? 10 : _hashtable.size() * 2;
// newtable.resize(newtablesize);
// //2.
// for (int i = 0; i < _hashtable.size(); i++)
// {
// if (_hashtable[i]._state == EXIST) //找到旧表中的有效数据,重新计算映射到新表中去
// {
// size_t index = koft(_hashtable[i]._data) % newtablesize;
// while (newtable[index]._state == EXIST)//哈希冲突时,使用线性探测找下一个空位置
// {
// ++index;
// if (index == newtablesize)//回到开头继续找
// {
// index = 0;
// }
// }
// newtable[index] = _hashtable[i];//插入
// }
// }
// _hashtable.swap(newtable);
//}
//利用insert插入,可以根据不同的探测方式来具体的插入
if (_hashtable.size() == 0 || _num * 10 / _hashtable.size() >= 7) //hash表里为空,或者该扩容
{
HashTable<K, T, KeyOfT> newhashtable;//开一个对象
size_t newtablesize = _hashtable.size() == 0 ? 10 : _hashtable.size() * 2;
newhashtable._hashtable.resize(newtablesize);
for (size_t i = 0; i < _hashtable.size(); i++)
{
if (_hashtable[i]._state == EXIST)
{
newhashtable.Insert(_hashtable[i]._data);//继续利用insert函数把数据插入到新的空间
}
}
_hashtable.swap(newhashtable._hashtable);
}
//容量没满,则开始插入逻辑
//线性探测
//先计算data在哈希表里的映射位置
//size_t index = koft(data) % _hashtable.size();
//while (_hashtable[index]._state == EXIST)
//{
// if (koft(_hashtable[index]._data) == koft(data))//不允许键值重复
// return false;
// ++index; //线性探测
// index %= _hashtable.size();
//}
//_hashtable[index]._data = data;
//_hashtable[index]._state = EXIST;
//_num++;
//return true;
//二次探测
size_t start = koft(data) % _hashtable.size();
size_t index = start;
int i = 1;
while (_hashtable[index]._state == EXIST)
{
if (koft(_hashtable[index]._data) == koft(data))//不允许键值重复
return false;
index = start + i*i;//二次探测
i++;
index %= _hashtable.size();
}
_hashtable[index]._data = data;
_hashtable[index]._state = EXIST;
_num++;
return true;
}
//根据键值查找,也是先计算其映射的位置,但是可能是存在探测后的位置,所以需要向后一直遍历去找,直到遇到空
HashData* Find(const K& key)
{
KeyOfT koft;
size_t index = key%_hashtable.size();
while (_hashtable[index]._state != EMPTY)
{
if (koft(_hashtable[index]._data) == key)
{
if (_hashtable[index]._state == EXIST)
{
return &_hashtable[index];
}
else if (_hashtable[index]._state == DELETE)
{
return nullptr;
}
}
++index;
index %= _hashtable.size();
}
return nullptr;
}
bool Erase(const K& key)
{
HashData* ret = Find(key);
if (ret)
{
ret->_state = DELETE;
--_num;
return true;
}
return false;
}
private:
vector<HashData> _hashtable; //映射表
size_t _num = 0; //有效数据个数
};
}
开散列概念
开散列法又叫链地址法(开链法),首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。
对应之前4与44的哈希地址冲突的问题,链地址法将哈希地址相同的元素放入一个桶中:即:开散列中每个桶中放的都是发生哈希冲突的元素。
节点结构
//节点结构
template<class T>
struct HashNode
{
T _data;
HashNode<T>* _next;
HashNode(const T& data)
:_data(data)
, _next(nullptr)
{
}
};
哈希表结构
// K:关键码类型
// T: 不同容器V的类型不同,如果是unordered_map,T代表一个键值对,如果是unordered_set,T为 键类型
// KeyOfT: 因为T的类型不同,通过data取键的方式就不同,
// Hash: 哈希函数仿函数对象类型,哈希函数使用除留余数法,需要将Key转换为整形数字才能取模,
//哈希表可以存整型,或者字符串类型,而映射时字符串必须要转化为整数,需要哈希算法
template<class K, class T,class KeyOfT,class Hash>
class HashTable
{
typedef HashNode <T> Node;
public:
friend struct hashiterator < K, T, KeyOfT, Hash>; //因为实现迭代器时需要用到找到下一个桶,所以需要访问底层的哈希表,但是为私有成员,所以用友元声明
typedef hashiterator<K, T, KeyOfT, Hash> iterator;//迭代器
//Insert
//Find
//。。。。方法
private:
vector<Node*> _hashtable;
size_t _num = 0;
桶结构的迭代器
//连地址法的桶结构的迭代器
template <class K,class T,class KeyOfT,class Hash>
struct hashiterator
{
typedef HashNode<T> Node;
typedef HashTable<K, T, KeyOfT, Hash> HT;
typedef hashiterator<K, T, KeyOfT, Hash> self;
Node* _node;// 当前迭代器关联的节点
HT* _ht; // 哈希桶--主要是为了找下一个空桶时候方便
hashiterator(Node* node,HT* ht)
:_node(node)
, _ht(ht)
{
}
T& operator*()
{
return _node->_data;
}
T* operator->()
{
return &_node->_data;
}
// 注意:因为哈希桶在底层是单链表结构,所以哈希桶的迭代器不需要--操作
self& operator++()
{
// 当前迭代器所指节点后还有节点时直接取其下一个节点
if (_node->_next)
_node = _node->_next;
else // 找下一个不空的桶,返回该桶中第一个节点
{
KeyOfT koft;
size_t index = _ht->HashFunc(koft(_node->_data)) % _ht->_hashtable.size();
index++;
for (; index < _ht->_hashtable.size(); index++)
{
Node* cur = _ht->_hashtable[index];//判断下一个桶是否为空
if (cur)
{
_node = cur;
return *this;
}
}
_node = nullptr;//后面一个也没有,则置空返回
}
return *this;
}
bool operator!=(const self& s)
{
return _node != s._node;
}
bool operator==(const self& s)
{
return _node == s._node;
}
};
在哈希表内部,我们写一个函数来调用仿函数模板类(哈希函数)计算映射的位置
size_t HashFunc(const K& key)//键值取整型
{
Hash hash;
return hash(key);
}
增容:
桶的个数是一定的,随着元素的不断插入,每个桶中元素的个数不断增多,极端情况下,可能会导致一个桶中链表节点非常多,会影响的哈希表的性能,因此在一定条件下需要对哈希表进行增容,那该条件怎么确认呢?开散列最好的情况是:每个哈希桶中刚好挂一个节点,再继续插入元素时,每一次都会发生哈希冲突,因此,在元素个数刚好等于桶的个数时,可以给哈希表增容。即荷载因子为1时,触发扩容。
增容流程也一样:
1.开新表
2.遍历旧表的数据,重新计算在新表中位置,插入进去,只不过还要遍历到桶里的每一个元素而已
3.释放旧表
if (_hashtable.size()== 0 ||_num == _hashtable.size() ) // 如果负载因子等于1,则增容,避免大量的哈希冲突
{
// 1.开2倍大小的新表(不一定是2倍)
// 2.遍历旧表的数据,重新计算在新表中位置
// 3.释放旧表
//1
vector<Node*> newtable;
size_t newtablesize = _hashtable.size() == 0 ? 10 : _hashtable.size() * 2;
newtable.resize(newtablesize);
//2.
for (size_t i = 0; i < _hashtable.size(); i++)
{
// 将旧表中的节点取下来重新计算在新表中的位置,并插入到新表
Node* cur = _hashtable[i];
while (cur)
{
Node* next = cur->_next;
size_t index = HashFunc(koft(cur->_data)) % newtablesize;//重新计算位置
cur->_next = newtable[index];
newtable[index] = cur;
cur = next;
}
//3.
_hashtable[i] = nullptr;
}
_hashtable.swap(newtable);
}
插入元素
//未满,计算插入位置再插入
size_t index = HashFunc(koft(data)) % _hashtable.size();
//1.先查找这个键值存不存在
Node* cur = _hashtable[index];
while (cur)
{
if (koft(cur->_data) == koft(data))
{
return make_pair(iterator(cur,this),false);//,对于unordered_map,不允许存在重复值,所以不允许插入,
/但是[]底层是调用insert函数的,存在 修改键对应的值 的这个操作,例如 map[2]++、map[2]=4更改键2对应的值为4等操作;所以要返回迭代器节点
}
else
cur = cur->_next;
}
//2.则可以头插或者尾插进链表
Node* newnode = new Node(data);
newnode->_next = _hashtable[index];
_hashtable[index] = newnode;
++_num;
return make_pair(iterator(newnode,this),true);
开散列与闭散列比较
应用链地址法处理溢出,需要增设链接指针,似乎增加了存储开销。事实上: 由于开地址法必须保持大量的空闲空间以确保搜索效率,如探测法要求装载因子a <= 0.7,而表项所占空间又比指针大的多,所以使用链地址法反而比开地址法节省存储空间。
template<class K, class T,class KeyOfT,class Hash>
class HashTable
{
typedef HashNode <T> Node;
public:
friend struct hashiterator < K, T, KeyOfT, Hash>; //因为实现迭代器时需要用到找到下一个桶,所以需要访问底层的哈希表,但是为私有成员,所以用友元声明
typedef hashiterator<K, T, KeyOfT, Hash> iterator;
iterator begin()
{
//第一个不为空的桶的第一个元素
for (size_t i = 0; i < _hashtable.size(); i++)
{
if (_hashtable[i])
{
return iterator(_hashtable[i],this);
}
}
return end();
}
iterator end()
{
//最后一个元素的下一个元素,可以直接设置为nullptr
return iterator(nullptr, this);
}
~HashTable()
{
Clear();
}
void Clear()
{
//一个桶一个桶的删除
for (int i = 0; i < _hashtable.size(); i++)
{
Node* cur = _hashtable[i];
while (cur)
{
Node* next = cur->_next;
delete cur;
cur = next;
}
_hashtable[i] = nullptr;
}
}
size_t HashFunc(const K& key)//键值取整型
{
Hash hash;
return hash(key);
}
pair<iterator,bool> Insert(const T& data)
{
KeyOfT koft;
//也还是要先判断是否要增容,
//开散列最好的情况是:每个哈希桶中刚好挂一个节点,再继续插入元素时,每一次都会发生哈希冲突,因此,在元素个数刚好等于桶的个数时,可以给哈希表增容。
if (_hashtable.size()== 0 ||_num == _hashtable.size() ) // 如果负载因子等于1,则增容,避免大量的哈希冲突
{
// 1.开2倍大小的新表(不一定是2倍)
// 2.遍历旧表的数据,重新计算在新表中位置
// 3.释放旧表
//1
vector<Node*> newtable;
size_t newtablesize = _hashtable.size() == 0 ? 10 : _hashtable.size() * 2;
newtable.resize(newtablesize);
//2.
for (size_t i = 0; i < _hashtable.size(); i++)
{
// 将旧表中的节点取下来重新计算在新表中的位置,并插入到新表
Node* cur = _hashtable[i];
while (cur)
{
Node* next = cur->_next;
size_t index = HashFunc(koft(cur->_data)) % newtablesize;//重新计算位置
cur->_next = newtable[index];
newtable[index] = cur;
cur = next;
}
//3.
_hashtable[i] = nullptr;
}
_hashtable.swap(newtable);
}
//未满,计算插入位置插入
size_t index = HashFunc(koft(data)) % _hashtable.size();
//1.先查找这个键值存不存在
Node* cur = _hashtable[index];
while (cur)
{
if (koft(cur->_data) == koft(data))
{
return make_pair(iterator(cur,this),false);//,对于unordered_map,不允许存在重复值,所以不允许插入,
/但是[]底层是调用insert函数的,存在 修改键对应的值 的这个操作,例如 map[2]++、map[2]=4更改键2对应的值为4等操作;所以要返回迭代器节点
}
else
cur = cur->_next;
}
//2.则可以头插或者尾插进链表
Node* newnode = new Node(data);
newnode->_next = _hashtable[index];
_hashtable[index] = newnode;
++_num;
return make_pair(iterator(newnode,this),true);
}
Node* Find(const K& key)
{
KeyOfT koft;
//也还是先计算出映射位置,在进入到挂载的链表里找
size_t index = HashFunc(key) % _hashtable.size();
Node* cur = _hashtable[index];
while (cur)
{
if (koft(cur->_data) == key)
{
return cur;
}
cur = cur->_next;
}
return nullptr;
}
bool Erase(const K& key)
{
KeyOfT koft;
size_t index = HashFunc(key) % _hashtable.size();
//因为是单链表,所以遍历时也要保存前一个指针,方便删除后的链接
Node* prev = nullptr;
Node* cur = _hashtable[index];
while (cur)
{
if (koft(cur->_data) == key)
{
if (prev == nullptr)//第一个就是要删除的
{
_hashtable[index] = cur->_next;
}
else
{
prev->_next = cur->_next;
}
delete cur;
return true;
}
else //继续往下找
{
prev = cur;
cur = cur->_next;
}
}
return false;
}
private:
vector<Node*> _hashtable;
size_t _num = 0;
};
#pragma once
#include "HashTable.h"
using namespace OPEN_HASH;
namespace MyHashSet
{
template<class K,class V,class Hash=Hash<K>>
class unordered_set
{
struct SetKeyOfT
{
const K& operator()(const K& key)
{
return key;
}
};
public:
typedef typename HashTable<K, V, SetKeyOfT, Hash> ::iterator iterator;
iterator begin()
{
return _hashset.begin();
}
iterator end()
{
return _hashset.end();
}
pair<iterator, bool> Insert(const K& key)
{
return _hashset.Insert(key);
}
//其他接口也都是基于底层的_hashset的接口函数
private:
HashTable<K, V, SetKeyOfT, Hash> _hashset;
};
void test_unordered_set()
{
unordered_set<int,int> s;
s.Insert(1);
s.Insert(5);
s.Insert(4);
s.Insert(2);
unordered_set<int,int>::iterator it = s.begin();
while (it != s.end())
{
cout << *it << " ";
++it;
}
cout << endl;
}
}
#pragma once
#include
#include
#include "HashTable.h"
using namespace std;
using namespace OPEN_HASH;
namespace MyHashMap
{
// unordered_map中存储的是pair<K, V>的键值对,K为key的类型,V为value的类型,Hash为哈希函数类型,根据指定的关键字类型,对应不同的模板
// unordered_map在实现时,只需将_maphash中的接口重新封装即可
template<class K,class V,class Hash=Hash<K>>
class unordered_map
{
struct MapKeyOfT
{
const K& operator()(const pair<K, V>& kv)
{
return kv.second;
}
};
public:
typedef typename HashTable<K, pair<K, V>, MapKeyOfT, Hash>::iterator iterator;
iterator begin()
{
return _maphash.begin();
}
iterator end()
{
return _maphash.end();
}
pair<iterator, bool> Insert(const pair<K, V>& kv)
{
return _maphash.Insert(kv);
}
V& operator[](const K& key)
{
pair<iterator, bool> ret = _maphash.Insert(make_pair(key, V())); //得到返回的节点
//return ret.first->second; //再返回节点里键 对应的值,用于修改 ,返回值为引用,且此对象不是临时变量,视为可修改的左值
return ret.first->second;
}
//。。。。其他接口也都是封装与哈希表结构的接口函数
//iterator Find(const K& key){
return _maphash.Find(key);}
//size_t count(const K& key){
return _maphash.count(key);}
//iterator erase(iterator position){
return _maphash.Erase(key);}
private:
HashTable<K, pair<K,V>, MapKeyOfT, Hash> _maphash;
};
void test_unordered_map()
{
unordered_map<string, string> dict;//定义一个 字典
//插入
dict.Insert(make_pair("sort", "排序"));
dict.Insert(make_pair("left", "左边"));
dict.Insert(make_pair("string", "字符串"));
//使用[]更改键对应的值 ,,因为重载[]是使用的引用返回,作为左值,可以被修改
dict["left"] = "剩余"; //修改value
dict["end"] = "尾部";//或者插入
//unordered_map<string, string>::iterator it = dict.begin();
auto it = dict.begin();
while (it != dict.end())
{
cout << it->first << ":" << it->second << endl;
++it;
}
}
}
1、它们都可以可以实现key和key/value的搜索场景,并且功能和使用基本一样。
2、map/set的底层是使用红黑树实现的,遍历出来是有序的,增删查改的时间复杂度是O(logN).
3、unordered_ map/ unordered_set 的底层是使用哈希表实现的,遍历出来是无序的,增删查改的时间复杂度是0(1)
4、map和set是双向迭代器,unordered_map和unorded_set 是单向迭代器。