一、unordered 系列关联式容器
在 C++98 中,STL 提供了底层为红黑树结构的一些列关联式容器,在查询时效率可以达到 O ( l o g 2 N ) O(log2^N)O(log2N),即最差情况下需要比较红黑树高度次,当树中的结点非常多的时候,查询效率也不理想。最好的查询是,进行很少的比较次数就能够将元素找到,因此在 C++11 中,STL 又提供了4个 unordered 系列的关联式容器,这四个容器与红黑树结构的关联式容器使用方法基本类似,只是其底层结构不同,本文中只对 unordered_map 和 unordered_set 进行介绍,unordered_multimap 和 unordered_multiset 感兴趣的小伙伴可以自行查阅文档。
二、unordered_map
1.1 unordered_map 介绍
- unordered_map 是存储 <key,value> 键值对的关联式容器,其允许通过 key 快速的索引到与其对应的 value。
- 在 unordered_map 中,键值通常用于唯一的标识元素,而映射值是一个对象,其内容与此键值关联。键和映射值的类型可能不同。
- 在内部,unordered_map 没有对 <key,value> 按照任何特定的顺序排序,为了能在常数范围内找到 key 所对应的 value,unordered_map 将相同哈希值的键值放在相同的桶中。
- unordered_map 容器通过 key 访问单个元素要比 map 快,但它通常在遍历元素子集的范围迭代方面效率较低。
- unordered_map 实现了直接访问操作符(operator[ ]),它允许使用 key 作为参数直接访问 value。
- 它的迭代器至少是前向迭代器(单向迭代器)。
1.2 unordered_map 的接口说明
1.2.1 unordered_map 的构造
函数声明 | 功能介绍 |
unordered_map | 构造不同格式的 unordered_map 对象 |
1.2.2 unordered_map 的容量
函数声明 | 功能介绍 |
bool empty() const | 检测 unordered_map 是否为空 |
size_t size() const | 获取 unordered_map 有效元素的个数 |
1.2.3 unordered_map 的迭代器
函数声明 | 功能介绍 |
begin() | 返回 unordered_map 第一个元素的迭代器 |
end() | 返回 unordered_map 最后一个元素下一个位置的迭代器 |
cbegin() | 返回 unordered_map 第一个元素的 const 迭代器 |
cend() | 返回 unordered_map 最后一个元素下一个位置的 const 迭代器 |
1.2.4 unordered_map 的元素访问
函数声明 | 功能介绍 |
operator[ ] | 返回与 key 对应的 value,没有一个默认值 |
小Tips:该函数中实际调用哈希桶的插入操作,用参数 key 与 V() 构造一个默认值往底层哈希桶中插入,如果 key 不在哈希桶中,插入成功,返回 V()。插入失败,说明 key 已经在哈希桶中,将 key 对应的 value 返回。
1.2.5 unordered_map 的查询
函数声明 | 功能介绍 |
iterator find(const K& key) | 返回 key 在哈希桶中的位置 |
size_t count(const K& key) | 返回哈希桶中关键码为 key 的键值对的个数 |
小Tips:unordered_map 中 key 是不能重复的,因此 count 函数的返回值最大为1。
1.2.6 unordered_map 的修改操作
函数声明 | 功能介绍 |
insert | 向容器中插入键值对 |
erase | 删除容器中的键值对 |
void clear() | 清空容器中有效元素个数 |
void swap(unordered_map& ump) | 交换两个容器中的元素 |
1.2.7 unordered_map 的桶操作
函数声明 | 功能介绍 |
size_t bucket_count() const | 返回哈希桶中桶的总个数 |
size_t bucket_size(size_t n) const | 返回 n 号桶中有效元素的总个数 |
size_t bucket(const K& key) | 返回元素 key 所在的桶号 |
三、底层结构
unordered 系列的关联式容器之所以效率比较高,是因为其底层使用了哈希结构。
3.1 哈希概念
顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为 O ( N ) O(N)O(N),平衡树中为树的高度,即 O ( l o g 2 N ) O(log2^N)O(log2N),搜索的效率取决于搜索过程中关键码的比较次数。
理想的搜索方法:可以在不经过任何比较,一次直接从表中得到要搜索的元素。如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素。在结构中:
- 插入元素:根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放。
- 搜索元素:对元素的关键码进行相同的计算,把求得的函数值当做元素的存储位置,在结构中按此位置取元素比较,若关键码相等,则搜素成功。
该方式即为哈希(散列)方法,哈希方法中使用的转换函数称为哈希(散列)函数,构造出来的结构称为哈希表(Hash Table)(或者散列表)
小Tips:用该方法进行搜索不必进行多次关键码的比较,因此搜索的速度比较快。但是也会出现问题,以上图为例,再向集合中插入44,计算出来的哈希函数值是4,但是下标为4的位置已经存储的有值了。
3.2 哈希冲突
对于两个数据元素的关键字 k_i
和 k_j
(i != j),有 k_i != k_j
,但有:Hash(k_i
) == Hash(k_j
),即:不同的关键字通过相同的哈希函数计算出相同的哈希值,该种现象称为哈希冲突或哈希碰撞。把具有不同关键码而具有相同哈希地址的数据元素称为“同义词”。
3.3 哈希函数
引起哈希冲突的一个原因可能是:哈希函数设计不够合理。设计哈希函数应该遵循以下原则:
- 哈希函数的定义域必须包括需要存储的全部关键码,而如果散列表允许有 m 个地址时,其值域必须在 0~m-1 之间。
- 哈希函数计算出来的地址能均匀分布在整个空间中。
- 哈希函数应该比较简单。
下面给大家列举一些常见的哈希函数。
3.3.1 直接定值法----(常用)
取关键字的某个线性函数为散列地址:
H a s h ( K e y ) = A ∗ K e y + B Hash(Key) = A*Key +BHash(Key)=A∗Key+B
小Tips:此方法的优点是简单、均匀。但是需要事先知道关键字的分布情况。适合查找比较小且连续的情况。
3.3.2 除留余数法----(常用)
设散列表中允许的地址数为 m,取一个不大于 m,但最接近或者等于 m 的质数 p 作为除数,按照哈希函数:
H a s h ( K e y ) = K e y % p ( p < = m ) Hash(Key) = Key \% p(p <= m)Hash(Key)=Key%p(p<=m)
3.3.3 平方取中法----(了解)
假设关键字为1234,对它平方就是1522756,抽取中间的3位227作为哈希地址;再比如关键字为4321,对它的平方就是18671041,抽取中间的3位671(或710)作为哈希地址。平方取中法适合于不知道关键字的分布,而位数又不是很大的情况。
3.3.4 折叠法----(了解)
折叠法是将关键字从左到右分割成位数相等的几部分(最后一部分位数可以短一些),然后将这几部分叠加求和,并按散列表表长,取后几位作为散列地址。
3.3.5 随机数法----(了解)
选择一个随机数,取关键字的随机函数值为它的哈希地址,即:
H a s h ( K e y ) = r a n d o m ( k e y ) Hash(Key) = random(key)Hash(Key)=random(key)
小Tips:其中 random 为随机数函数。
3.3.6 数学分析法----(了解)
设有 n 个d 位数,每一位可能有 r 种不同的符号在各个位上出现的频率不一定相同,可能在某些位上分布比较均匀,每种符号出现的机会均等,在某些位上分布不均匀只有几种符号经常出现。可根据散列表的大小,选择其中各种符号分布均匀的若干位作为散列地址。例如:
假设要存储某家公司员工登记表,如果用手机号作为关键字,那么极有可能前7位都是 相同的,那么我们可以选择后面的四位作为散列地址,如果这样的抽取工作还容易出现 冲突,还可以对抽取出来的数字进行反转(如1234改成4321)、右环位移(如1234改成4123)、左环移位、前两数与后两数叠加(如1234改成12+34=46)等方法。
小Tips:数学分析法通常适合处理关键字位数比较大的情况,如果事先知道关键字的分布且关键字的若干位分布较均匀的情况。
注意:哈希函数设计的越精妙,产生哈希冲突的可能性就越低,但是无法避免哈希冲突。
3.4 哈希冲突解决
解决哈希冲突的两种常见方法是:闭散列和开散列。
3.4.1 闭散列
闭散列也叫开放定址法,当发生哈希冲突时,如果哈希表未被填满,说明在哈希函数表中必然还有空位置,那么可以把 Key 对应的元素存放到冲突位置中的下一个空位置中去。那如何寻找下一个空位置呢?
3.4.1.1 线性探测
从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。
插入:
- 通过哈希函数获取待插入元素在哈希表中的位置。
- 如果该位置中没有元素则直接插入新元素,如果该位置中有元素发生哈希冲突,使用线性探测找到下一个空位置,插入新元素。
查找:
- 通过哈希函数获取待查找元素在哈希表中的位置。
- 看该位置的值是否是我们要查找的值,如果不是,从当前位置依次往后进行比较,找到就结束,如果遇到空还没有找到,说明当前待查找的元素不在哈希表中。
小Tips:这里简介反映出哈希表中的元素不能太满了,如果太满,那么它的查找效率有可能就变成了 O ( N ) O(N)O(N)。
删除:采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素会影响其它元素的搜索。比如上图中,删除元素24,如果直接删掉,54查找起来可能会受影响。因此线性探测采用标记的伪删除法来删除一个元素。
扩容:散列表的载荷因子定义为:
α = 填 入 表 中 的 元 素 个 数 / 散 列 表 的 长 度 α = 填入表中的元素个数 / 散列表的长度α=填入表中的元素个数/散列表的长度
α αα 是散列表装满成都的标志因子。由于表长是定值,α αα 与“填入表中的元素个数”成正比,所以,α αα 越大,表明填入表中的元素越多,产生冲突的可能性就越大,但是空间利用率越高;反之,α αα 越小,表明填入表中的元素越少,产生冲突的可能性就越小,但是空间浪费会比较多。实际上,散列表的平均查找长度是载荷因子 α αα 的函数,只是不同处理冲突的方式有不同的函数。
对于闭散列(开放定址法),载荷因子是特别重要的因素,应严格限制在 0.7 − 0.8 0.7-0.80.7−0.8以下。超过 0.8 0.80.8,查表时的 CPU 缓存不命中按照指数曲线上升。因此,一些曹勇开放定址法的 hash 库,如 Java 的系统库限制了载荷因子为 0.75,超过此值将 resize 散列表。
小Tips:扩容后,元素的映射关系会发生变化,所以我们需要重新建立映射,即重新计算元素对应的存储位置。原来冲突的,现在不一定冲突了,原来不冲突的,现在可能冲突了,因此扩容后需要对原来表中的元素重新走一遍插入逻辑。
3.4.1.2 闭散列(开放定址法)模拟实现
enum STATE { EXIST, EMPTY, DELETE }; //存储元素的结点 template<class K, class V> struct HashData { pair<K, V> _kv; STATE _state = EMPTY; }; //哈希表 template<class K, class V> class HashTable { public: HashTable() { _table.resize(10); } bool Insert(const pair<K, V>& kv) { //检查负载因子,扩容 /*if ((double)_n / _table.size() >= 0.7) { }*/ if (_n * 10 / _table.size() >= 7) { size_t newsize = _table.size() * 2; //重新建立映射关系 //vector<HashData<K, V>> tmp; //tmp.resize(newsize); //for (const auto& e : _table) //{ // if (e._state == EXIST) // { // size_t hashi = e._kv.first % tmp.size(); // while (tmp[hashi]._state == EXIST) // { // ++hashi; // //当hashi == size 的时候要让它从 0 开始继续找。 // /*if (hashi >= _table.size()) // { // hashi = 0; // }*/ // hashi %= _table.size(); // } // tmp[hashi] = e; // } // //} //std::swap(tmp, _table); HashTable<K, V> newHT; newHT._table.resize(newsize); //遍历旧表的数据插入到新表即可 for (size_t i = 0; i < _table.size(); ++i) { if (_table[i]._state == EXIST) { newHT.Insert(_table[i]._kv); } } _table.swap(newHT._table); } //线性探测 size_t hashi = kv.first % _table.size();//注意这里 //如果下标为hashi的地方没有存元素,那么就可以直接在hashi进行插入 //如果下标为hashi的地方存的有元素,就需要进行线性探测 //EMPTY、DELETE都可存储元素 while (_table[hashi]._state == EXIST) { ++hashi; //当hashi == size 的时候要让它从 0 开始继续找。 /*if (hashi >= _table.size()) { hashi = 0; }*/ hashi %= _table.size(); } //注意方括号访问,底层会去断言,下标必须小于size,所以上面模的是size。 _table[hashi]._kv = kv; _table[hashi]._state = EXIST; ++_n; return true; } HashData<const K, V>* Find(const K& key) { //线性探测 size_t hashi = key % _table.size();//注意这里 //如果下标为hashi的地方没有存元素,那么就可以直接在hashi进行插入 //如果下标为hashi的地方存的有元素,就需要进行线性探测 //EMPTY、DELETE都可存储元素 while (_table[hashi]._state != EMPTY) { if (_table[hashi]._state == EXIST && _table[hashi]._kv.first == key) { return (HashData<const K, V>*)&_table[hashi];//这里会涉及类型转化,有的编译器可能不支持,所以这里最好自己强转一下 } ++hashi; hashi %= _table.size(); } return nullptr; } bool Erase(const K& key) { HashData<const K, V>* ret = Find(key); if (ret) { ret->_state = DELETE; --_n; return true; } return false; } private: vector<HashData<K, V>> _table; size_t _n = 0;//因为数据是分散存储的,所以不能用vector中的size去计算哈希表中元素的数量,这个_n存储的就是哈希表中有效数据的个数 };
小Tips:线性探测的优点是:实现起来非常简单。缺点是:一旦发生哈希冲突,所有的冲突连在一起,容易产生数据“堆积”,即:不同关键码占据了可利用的空位置,使得寻找某关键码的位置需要许多次比较,导致搜索效率降低。可以利用下面的二次探测来解决该问题。
3.4.1.3 二次探测
线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关,因为找空位置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题,找下一个空位置的方法为:H i H_iHi = (H 0 H_0H0 + i 2 i^2i2 )% m 或者:H i H_iHi = (H 0 H_0H0 - i 2 i^2i2 )% m。其中:i = 1,2,3…, H 0 H_0H0是通过散列函数 Hash(x) 对元素的关键码 key 进行计算得到的位置,m是表的大小。
研究表明:当表的长度为质数且表装载因子 α αα 不超过 0.5 时,新的表项一定能够插入,而且任何一个位置都不会被探查两次。因此只要表中有一半的空位置,就不会存在表满的问题。在搜索时可以不考虑表满的情况,但在插入时必须确保表的装载因子 α αα 不超过 0.5,如果超出,必须考虑增容。因此,闭散列最大的缺陷局势空间利用率比较低,这也是哈希的缺陷。
3.4.2 开散列
开散列又叫拉链法,首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。
小Tips:从上图中可以看出,开散列中每个桶中放的都是发生哈希冲突的元素。
3.4.2.1 开散列模拟实现
template<class K, class V> struct HashNode { pair<K, V> _kv; HashNode<K, V>* _next; HashNode(const pair<K, V>& kv = pair<K, V>()) :_kv(kv) ,_next(nullptr) {} }; template<class K, class V, class HashFunc = DefaultHasFunc<K>> class HashTable { typedef HashNode<K, V> Node; private: void swap(HashTable<K, V, HashFunc>& hbt) { std::swap(hbt._table, this->_table); std::swap(hbt._n, this->_n); } public: HashTable(size_t size = 10) { _table.resize(size, nullptr); } //拷贝构造 HashTable(const HashTable<K, V, HashFunc>& htb) { _table.resize(htb._table.size()); for (size_t i = 0; i < htb._table.size(); ++i) { Node* cur = htb._table[i]; while (cur) { Insert(cur->_kv); cur = cur->_next; } } /* HashTable<K, V, HashFunc> tmp; tmp._table = htb._table;//这里现代写法行不通,因为_table里面存的是指针,属于内置类型,进行的是浅拷贝。 tmp._n = htb._n; swap(tmp);*/ } bool Insert(const pair<K, V>& kv) { //HashFunc hf; //先检查哈希桶中是否有这个元素,有就不能插入 if (Find(kv.first)) { return false; } //不扩容,不断插入,某些桶会越来越长,效率得不到保证 //因此还是需要进行适当的扩容 //这里一般把负载因子控制在1 //这样,在理想状态下,平均每个桶一个数据 if (_n == _table.size()) { //扩容 方法一:会去创建新节点,然后还要把旧结点释放,效率低下 /*HashTable<K, V, HashFunc> newTable(_table.size() * 2); for (size_t i = 0; i < _table.size(); ++i) { if (_table[i] != nullptr) { Node* cur = _table[i]; while (cur) { newTable.Insert(cur->_kv); cur = cur->_next; } } } _table.swap(newTable._table);*/ //扩容 方法二: vector<Node*> newtable; newtable.resize(_table.size() * 2, nullptr); for (size_t i = 0; i < _table.size(); ++i) { Node* cur = _table[i]; while (cur) { Node* next = cur->_next; size_t hashi = hf(cur->_kv.first) % newtable.size(); cur->_next = newtable[hashi]; newtable[hashi] = cur; cur = next; } _table[i] = nullptr; } _table.swap(newtable); } size_t hashi = hf(kv.first) % _table.size(); //检查当前桶里面是否已经有该元素 Node* cur = _table[hashi]; while (cur) { if (cur->_kv.first == kv.first) { return false; } cur = cur->_next; } //到这里说明当前桶里没有该元素,可以插入 Node* newnode = new Node(kv); newnode->_next = _table[hashi]; _table[hashi] = newnode; ++_n; return true; } //打印哈希桶 void Print() { for (size_t i = 0; i < _table.size(); ++i) { printf("Hash[%d]:", i); Node* cur = _table[i]; while (cur) { cout << cur->_kv.first << ':' << cur->_kv.second << "--->"; cur = cur->_next; } cout << "nullptr" << endl; } } //查找 Node* Find(const K& key) { size_t hashi = hf(key) % _table.size(); Node* cur = _table[hashi]; while (cur) { if (cur->_kv.first == key) { return cur; } cur = cur->_next; } return nullptr; } //删除 bool erase(const K& key) { size_t hashi = hf(key) % _table.size(); Node* cur = _table[hashi]; Node* prev = nullptr; while (cur) { if (cur->_kv.first == key) { if (prev == nullptr) { _table[hashi] = cur->_next; } else { prev->_next = cur->_next; } delete cur; cur = nullptr; --_n; return true; } prev = cur; cur = cur->_next; } return false; } ~HashTable() { for (size_t i = 0; i < _table.size(); ++i) { Node* cur = _table[i]; while (cur) { Node* next = cur->_next; delete cur; cur = next; } _table[i] = nullptr; } } private: vector<Node*> _table;//指针数组 //这里的_table属于自定义类型,如果我们不写析构函数,编译器会去调用vector自己的析构函数 //对于vector的析构函数来说,Node* 是一个指针,属于内置类型 //因此vector的析构函数不会对 Node* 做任何处理 //因此这里我们需要自己写析构函数,去释放哈希桶中的结点 size_t _n = 0;//记录存储的有效数据个数 HashFunc hf; };
四、模拟实现 unordered_set 和 unordered_map
4.1 哈希表的改造
这里我们使用开散列的方法来实现 unordered_set
和 unordered_map
。
4.1.1 模板参数列表的改造
//哈希表 template<class K, class T, class KeyOfT, class HashFunc = DefaultHasFunc<K>>//K的作用是为了方便查找和删除 class HashTable
小Tips:
- K:关键码类型。
- T:不同容器 T 的类型不同,如果是
unordered_map
,T 代表一个键值对,如果是unordered_set
,V 为 K。 - KeyOfT:因为 T 的类型不同,通过 value 取 key 的方式就不同,详细代码参考下面
unordered_set/map
的实现。 - HashFunc:哈希函数仿函数对象类型,哈希函数使用除留余数法,需要将 key 转换为整形数字才能取模。
4.1.2 增加迭代器操作
//HashTable.h //哈希桶的迭代器 template<class K, class T, class Ptr, class Ref, class KeyOfT, class HashFunc> struct HTIterator { typedef HashNode<T> Node; typedef HTIterator<K, T, Ptr, Ref, KeyOfT, HashFunc> Self; typedef HashTable<K, T, KeyOfT, HashFunc> Ht; typedef HTIterator<K, T, T*, T&, KeyOfT, HashFunc> iterator; Node* _node; const Ht* _pht; HTIterator(Node* node = nullptr, const Ht* pht = nullptr) :_node(node) ,_pht(pht) {} HTIterator(const iterator& it)//如果是普通迭代器,这里就是拷贝构造函数 :_node(it._node) //如果是 const 迭代器,这里就是用一个普通迭代器来构造一个 const 迭代器。 , _pht(it._pht) {} Self& operator++() { if (_node->_next) { _node = _node->_next; } else { //如果_node->_next == nullptr //说明要到下一个桶去,因此迭代器类里面需要一个哈希表的指针,指向当前迭代器维护的哈希表 //这样才能找到下一个桶 //先找到我当前在那个桶 KeyOfT kot; HashFunc hf; size_t hashi = hf(kot(_node->_data)) % _pht->_table.size(); //从下一个位置开始查找下一个不为空的桶 ++hashi; while (hashi < _pht->_table.size()) { if (_pht->_table[hashi]) { _node = _pht->_table[hashi]; return *this; } else { ++hashi; } } _node = nullptr; } return *this; } bool operator != (const Self& s) const { return _node != s._node; } Ref operator*() const { return _node->_data; } Ptr operator->() const { return &(_node->_data); } };
小Tips:因为哈希表本质上是由一个个哈希桶组成,迭代器走完当前桶,需要跳到下一个桶,迭代器要能指向下一个哈希桶,最简单的做法就是在迭代器里面存一份哈希表。实际代码中我们在迭代器中增加了一个哈希表类型的指针,指向当前迭代器维护的哈希表,又因为该指针会去访问哈希表里面的成员变量数组,所以该迭代器类必须是哈希表的友元类,关于友元类的具体声明参考下面修改后的哈希表。这里还有一个问题,迭代器里面使用了哈希表类型,哈希表里面又实用的迭代器类型,这里就会涉及到谁先谁后的问题,我这里的解决方法是将迭代器类定义在哈希表的前面,然后在迭代器的前面对哈希表的类做一个前置声明。其次,因为哈希桶在底层是单链表结构,所以哈希桶的迭代器不需要 - - 操作。
4.1.3 修改后的哈希表
//HashTable.h //哈希表 template<class K, class T, class KeyOfT, class HashFunc = DefaultHasFunc<K>>//K的作用是为了方便查找和删除 class HashTable { //模板的友元 template<class K, class T, class Ptr, class Ref, class KeyOfT, class HashFunc> friend struct HTIterator; typedef HashNode<T> Node; private: void swap(HashTable<K, T, HashFunc>& hbt) { std::swap(hbt._table, this->_table); std::swap(hbt._n, this->_n); } public: typedef HTIterator<K, T, T*, T&, KeyOfT, HashFunc> iterator; typedef HTIterator<K, T, const T*, const T&, KeyOfT, HashFunc> const_iterator; iterator begin() { //找第一个桶 for (size_t i = 0; i < _table.size(); ++i) { if (_table[i]) { return iterator(_table[i], this); } } return iterator(nullptr, this); } iterator end() { return iterator(nullptr, this); } const_iterator begin() const { //找第一个桶 for (size_t i = 0; i < _table.size(); ++i) { if (_table[i]) { return const_iterator(_table[i], this); } } return const_iterator(nullptr, this); } const_iterator end() const { return const_iterator(nullptr, this); } HashTable(size_t size = 10) { _table.resize(size, nullptr); } //拷贝构造 HashTable(const HashTable<K, T, HashFunc>& htb) { _table.resize(htb._table.size()); for (size_t i = 0; i < htb._table.size(); ++i) { Node* cur = htb._table[i]; while (cur) { Insert(cur->_data); cur = cur->_next; } } /* HashTable<K, T, HashFunc> tmp; tmp._table = htb._table;//这里现代写法行不通,因为_table里面存的是指针,属于内置类型,进行的是浅拷贝。 tmp._n = htb._n; swap(tmp);*/ } pair<iterator, bool> Insert(const T& data) { HashFunc hf; KeyOfT kt; //HashFunc hf; //先检查哈希桶中是否有这个元素,有就不能插入 if (Find(kt(data)) != end()) { return make_pair(Find(kt(data)), false); } //扩容 if (_n == _table.size()) { vector<Node*> newtable; newtable.resize(_table.size() * 2, nullptr); for (size_t i = 0; i < _table.size(); ++i) { Node* cur = _table[i]; while (cur) { Node* next = cur->_next; size_t hashi = hf(kt(cur->_data)) % newtable.size(); cur->_next = newtable[hashi]; newtable[hashi] = cur; cur = next; } _table[i] = nullptr; } _table.swap(newtable); } size_t hashi = hf(kt(data)) % _table.size(); //到这里说明当前桶里没有该元素,可以插入 Node* newnode = new Node(data); newnode->_next = _table[hashi]; _table[hashi] = newnode; ++_n; return make_pair(iterator(newnode, this), true); } //查找 iterator Find(const K& key)const { HashFunc hf; KeyOfT kt; size_t hashi = hf(key) % _table.size(); Node* cur = _table[hashi]; while (cur) { if (kt(cur->_data) == key) { return iterator(cur, this); } cur = cur->_next; } return iterator(nullptr, this); } //删除 bool erase(const K& key) { HashFunc hf; KeyOfT kt; size_t hashi = hf(key) % _table.size(); Node* cur = _table[hashi]; Node* prev = nullptr; while (cur) { if (kt(cur->_data) == key) { if (prev == nullptr) { _table[hashi] = cur->_next; } else { prev->_next = cur->_next; } delete cur; cur = nullptr; --_n; return true; } prev = cur; cur = cur->_next; } return false; } ~HashTable() { for (size_t i = 0; i < _table.size(); ++i) { Node* cur = _table[i]; while (cur) { Node* next = cur->_next; delete cur; cur = next; } _table[i] = nullptr; } } private: vector<Node*> _table;//指针数组 //这里的_table属于自定义类型,如果我们不写析构函数,编译器会去调用vector自己的析构函数 //对于vector的析构函数来说,Node* 是一个指针,属于内置类型 //因此vector的析构函数不会对 Node* 做任何处理 //因此这里我们需要自己写析构函数,去释放哈希桶中的结点 size_t _n = 0;//记录存储的有效数据个数 };
小Tips:哈希表的修改主要体现在增加通过 key 获取 value 的操作。
4.2 unordered_set 模拟实现
//unorderedset.h #include "HashTable.h" template<class K, class HashFunc = DefaultHasFunc<K>> class unordered_set { private: struct SetKeyOfT { const K& operator()(const K& key) { return key; } }; public: typedef typename HashTable<K, K, SetKeyOfT, HashFunc>::const_iterator iterator; typedef typename HashTable<K, K, SetKeyOfT, HashFunc>::const_iterator const_iterator; iterator begin() const { return _ht.begin(); } iterator end() const { return _ht.end(); } pair<iterator, bool> insert(const K& key) { /*pair<typename HashTable<K, K, SetKeyOfT, HashFunc>::iterator, bool> ret = _ht.Insert(key); return make_pair(iterator(ret.first._node, ret.first._pht), ret.second);*/ return _ht.Insert(key);//这种写法如果编译器检查的严格可能过不了 //上面两种插入方法都可以,这一块是精华,好好品味 } K& operator[](const K& key) { pair<typename HashTable<K, K, SetKeyOfT, HashFunc>::iterator, bool> ret = _ht.Insert(key); return *(ret.first); } private: HashTable<K, K, SetKeyOfT, HashFunc> _ht; };
小Tips:unordered_set 是一种 key 结构,所以它的普通迭代器和 const 迭代器都是不允许被修改的。因此 unordered_set 中的普通迭代器本质上还是 HashTable 中的 const 迭代器。此时就会出现一个问题,插入调用的是 HashTable 中的 Insert,其返回值是一个 pair,其中 first 是一个普通迭代器,而在 unordered_set 这一层,insert 的返回值也是一个 pair,它的 first 看起来是一个普通迭代器,但本质上是用 HashTable 中的 const 迭代器进行封装的,因此这里涉及到从普通迭代器转换成 const 迭代器,随然普通迭代器和 const 迭代器共用同一个类模板,但是它们的模板参数不同,所以普通迭代器和 const 迭代器本质上属于两种不同类型。因此要将一个普通迭代器转化成 const 迭代器本质上涉及类型转换。要用一个 A 类型的对象去创建一个 B 类型的对象 ,可以在 A 类里面增加一个构造函数,该构造函数的参数是 B 类型。因此,这里我们需要在迭代器类里面增加一个用普通迭代器构造 const 迭代器的构造函数。除了这种方法外,上面我还提供了一种方法,即先用 HashTable 中的普通迭代器创建一个 pair 对象 ret 接收 HashTable 中 Insert 的返回值,然后再去取出 pair 里面迭代器中的成员变量,用取出来的成员变量去构造一个 const 迭代器,然后再用这个 const 迭代器去构建一个 pair,最后返回这个 pair。这种方法的前提是迭代器类中的成员变量是 public,否则就不能再迭代器类的外面拿到其成员变量。
4.3 unordered_map 模拟实现
template<class K, class V, class HashFunc = DefaultHasFunc<K>> class unordered_map { private: struct MapKeyOfT { const K& operator()(const pair<K, V>& kv) { return kv.first; } }; public: typedef typename HashTable<K, pair<const K, V>, MapKeyOfT, HashFunc>::iterator iterator; typedef typename HashTable<K, pair<const K, V>, MapKeyOfT, HashFunc>::const_iterator const_iterator; iterator begin() { return _ht.begin(); } iterator end() { return _ht.end(); } const_iterator begin() const { return _ht.begin(); } const_iterator end() const { return _ht.end(); } pair<iterator, bool> insert(const pair<K, V>& kv) { return _ht.Insert(kv); } V& operator[](const K& key) { pair<iterator, bool> ret = _ht.Insert(make_pair(key, V())); return ret.first->second; } private: HashTable<K, pair<const K, V>, MapKeyOfT, HashFunc> _ht; };
小Tips:对 unordered_map 结构来说无论是普通迭代器还是 const 迭代器,它的 key 永远都不能被修改。这里的解决方案是在 unordered_map 中用 pair<cons K, V> 去实例化出一个哈希表的模板,此时哈希表的节点中存的就是 pair<const K, V> _data;
,此时无论是普通迭代器还是 const 迭代器去解引用该结点,返回的 _data,它里面的 key 是 const K 类型,是不支持修改的,这样以来问题就解决了。由于这里我们是用 pair<cons K, V> 去实例化的模板,所以 unordered_map 中的哈希表本质上存的就是 pair<cons K, V>,但是在用户层我们插入的是 pair<K, V>,这是两种不同的类型,和上面的普通迭代去创建 const 迭代器一样,这里还是需要通过构造函数来解决,但是这里不需要我们自己来解决,因为 pair 是库中的内容,库中已经帮我们实现好啦,所以这里我们无需做任何处理。这里本质上会去调用下面这个构造函数。
五、结语
今天的分享到这里就结束啦!如果觉得文章还不错的话,可以三连支持一下,春人的主页还有很多有趣的文章,欢迎小伙伴们前去点评,您的支持就是春人前进的动力!