深度图解 Redis Hash(散列表)实现原理

本文涉及的产品
云数据库 Tair(兼容Redis),内存型 2GB
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
简介: 深度图解 Redis Hash(散列表)实现原理

1. 是什么

Redis Hash(散列表)是一种 field-value pairs(键值对)集合类型,类似于 Python 中的字典、Java 中的 HashMap。一个 field 对应一个 value,你可以通过 field 在 O(1) 时间复杂度查 field 找关联的 field,也可以通过 field 来更新或者删除这个键值对。

Redis 的散列表 dict 由数组 + 链表构成,数组的每个元素占用的槽位叫做哈希桶,当出现散列冲突的时候就会在这个桶下挂一个链表,用“拉链法”解决散列冲突的问题

简单地说就是将一个 key 经过散列计算均匀的映射到散列表上。

图 2-18

图 2-18

2. 修炼心法

Hash 数据类型底层存储数据结构实际上有两种。

  1. dict 结构。
  2. 在 7.0 版本之前使用 ziplist,之后被 listpack 代替。

通常情况下使用 dict 数据结构存储数据,每个 field-value pairs 构成一个 dictEntry 节点来保存。

只有同时满足以下两个条件的时候,才会使用 listpack(7.0 版本之前使用 ziplist)数据结构来代替 dict 存储, 把 key-value 键值对按照 field 在前 value 在后,紧密相连的方式放到一次把每个键值对放到列表的表尾

  • 每个键值对中的 field 和 value 的字符串字节大小都小于hash-max-listpack-value 配置的值(默认 64)。
  • field-value pairs 键值对数量小于 hash-max-listpack-entries配置的值(默认 512)。

每次向散列表写数据的时候,都会调用 t_hash.c 中的hashTypeConvertListpack()函数来判断是否需要转换底层数据结构。

当插入和修改的数据不满足以上两个条件时,就把散列表底层存储结构转换成 dict结构。需要注意的是,不能由 dict 退化成 listpack

虽然使用了 listpack 就无法实现 O(1) 时间复杂度操作数据,但是使用 listpack 能大大减少内存占用,而且数据量比较小,性能并不是有太大差异。

为了对上层屏蔽散列表底层使用了不同数据结构存储,所以抽象了一个 hashTypeIterator 迭代器来实现散列表的查询。

Hashes 数据类型使用 listpack 作为存储数据时的情况,如图 2-19 所示。

图 2-19

图 2-19

listpack 数据结构在之前的已经介绍过, 接下来带你揭秘 dict 到底长啥样。

Redis 数据库就是一个全局散列表。正常情况下,我只会使用 ht_table[0]散列表,图 2-20 是一个没有进行 rehash 状态下的字典。

图 2-20

图 2-20

dict 字典在源代码 dict.h中使用 dict 结构体表示。

struct dict {
    dictType *type;
  // 真正存储数据的地方,分别存放两个指针
    dictEntry **ht_table[2];
    unsigned long ht_used[2];
    long rehashidx;
    int16_t pauserehash;
    signed char ht_size_exp[2];
};
  • dictType *type,存放函数的结构体,定义了一些函数指针,可以通过设置自定义函数,实现 dict 的 key 和 value 存放任何类型的数据。
  • 重点看 dictEntry **ht_table[2],存放了两个 dictEntry 的二级指针,指针分别指向了一个 dictEntry 指针的数组。
  • ht_used[2],记录每个散列表使用了多少槽位(比如数组长度 32,使用了 12)。
  • rehashidx,用于标记是否正在执行 rehash 操作,-1 表示没有进行 rehash。如果正在执行 rehash,那么其值表示当前 rehash 操作执行的 ht_table[0] 散列表 dictEntry 数组的索引。
  • pauserehash 表示 rehash 的状态,大于 0 时表示 rehash 暂停了,小于 0 表示出错了。

继续看 dictEntry,数组中每个元素都是 dictEntry 类型,就是这玩意存放了键值对,表示字典的一个节点。

typedef struct dictEntry {
    void *key;
    union {
        void *val;
        uint64_t u64;
        int64_t s64;
        double d;
    } v;
    struct dictEntry *next;
} dictEntry;
  • *key指针指向键值对中的键,实际上指向一个 SDS 实例。
  • v是一个 union 联合体,表示键值对中的值,同一时刻只有一个字段有值,用联合体的目是节省内存。
  • *val 如果值是非数字类型,那就使用这个指针存储。
  • uint64_t u64,值是无符号整数的时候使用这个字段存储。
  • int64_t s64,值是有符号整数时,使用该字段存储。
  • double d,值是浮点数是,使用该字段存储。
  • *next指向下一个节点指针,当散列表数据增加,可能会出现不同的 key 得到的哈希值相等,也就是说多个 key 对应在一个哈希桶里面,这就是哈希冲突。Redis 使用拉链法,也就是用链表将数据串起来。

MySQL:“为啥 ht_table[2] 存放了两个指向散列表的指针?用一个散列表不就够了么。”

默认使用 ht_table [0] 进行读写数据,当散列表的数据越来越多的时候,哈希冲突严重会出现哈希桶的链表比较长,导致查询性能下降。

我为了唯快不破想了一个法子,当散列表保存的键值对太多或者太少的时候,需要通过 rehash(重新散列)对散列表进行扩容或者缩容。

扩容和缩容

  1. 为了高性能,减少哈希冲突,我会创建一个大小等于 ht_used[0] * 2的散列表 ht_table[1],也就是每次扩容时根据散列表 ht_table [0]已使用空间扩大一倍创建一个新散列表ht_table [1]。反之,如果是缩容操作,就根据ht_table [0]已使用空间缩小一倍创建一个新的散列表。
  2. 重新计算键值对的哈希值,得到这个键值对在新散列表 ht_table [1]的桶位置,将键值对迁移到新的散列表上。
  3. 所有键值对迁移完成后,修改指针,释放空间。具体是把 ht_table[0]指针指向扩容后的散列表,回收原来小的散列表内存空间,ht_table[1]指针指向NULL,为下次扩容或者缩容做准备。

MySQL:“什么时候会触发扩容?”

  1. 当前没有执行 BGSAVE或者 BGREWRITEAOF命令,同时负载因子大于等于 1。也就是当前没有 RDB 子进程和 AOF 重写子进程在工作,毕竟这俩操作还是比较容易对性能造成影响的,就不扩容火上浇油了。
  2. 正在执行 BGSAVE或者 BGREWRITEAOF命令,负载因子大于等于 5。(这时候哈希冲突太严重了,再不触发扩容,查询效率太慢了)。

负载因子 = 散列表存储 dictEntry 节点数量 / 散列表桶个数。完美情况下,每个哈希桶存储一个 dictEntry 节点,这时候负载因子 = 1。

MySQL:“需要迁移数据量很大,rehash 操作岂不是会长时间阻塞主线程?”

为了防止阻塞主线程造成性能问题,我并不是一次性把全部的 key 迁移,而是分多次,将迁移操作分散到每次请求中,避免集中式 rehash 造成长时间阻塞,这个方式叫渐进式 rehash

在执行渐进式 rehash 期间,dict 会同时使用 ht_table[0]ht_table[1]两个散列表,rehash 具体步骤如下。

  1. rehashidx设置成 0,表示 rehash 开始执行。
  2. 在 rehash 期间,服务端每次处理客户端对 dict 散列表执行添加、查找、删除或者更新操作时,除了执行指定操作以外,还会检查当前 dict 是否处于 rehash 状态,是的话就把散列表ht_table[0]上索引位置为 rehashidx 的桶的链表的所有键值对 rehash 到散列表 ht_table[1]上,这个哈希桶的数据迁移完成,就把 rehashidx 的值加 1,表示下一次要迁移的桶所在位置。
  3. 当所有的键值对迁移完成后,将 rehashidx设置成 -1,表示 rehash 操作已完成。

MySQL:“rehash 过程中,字典的删除、查找、更新和添加操作,要从两个 ht_table 都搞一遍么?”

删除、修改和查找可能会在两个散列表进行,第一个散列表没找到就到第二个散列表进行查找。但是增加操作只会在新的散列表上进行。

MySQL:“如果请求比较少,岂不是会很长时间都要使用两个散列表。”

好问题,在 Redis Server 初始化时,会注册一个时间事件,定时执行 serverCron 函数,其中包含 rehash 操作用于辅助迁移,避免这个问题。

serverCron 函数除了做 rehash 以外,主要处理如下工作。

  • 过期 key 删除。
  • 监控服务运行状态。
  • 更新统计数据。
  • 渐进式 rehash。
  • 触发 BGSAVE / AOF rewrite 以及停止子进程。
  • 处理客户端超时。
  • ......

是不是很贴心,既能保证性能,又能避免内存浪费。好了,今天散列表底层数据结构实现原理就到这里。后面我将给大家分享如何使用 Hash 实现购物车功能。


相关实践学习
基于Redis实现在线游戏积分排行榜
本场景将介绍如何基于Redis数据库实现在线游戏中的游戏玩家积分排行榜功能。
云数据库 Redis 版使用教程
云数据库Redis版是兼容Redis协议标准的、提供持久化的内存数据库服务,基于高可靠双机热备架构及可无缝扩展的集群架构,满足高读写性能场景及容量需弹性变配的业务需求。 产品详情:https://www.aliyun.com/product/kvstore     ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
2月前
|
存储 NoSQL Java
Redis如何处理Hash冲突?
在 Redis 中,哈希表是一种常见的数据结构,通常用于存储对象的属性,对于哈希表,最常遇到的是哈希冲突,那么,当 Redis遇到Hash冲突会如何处理?这篇文章,我们将详细介绍Redis如何处理哈希冲突,并探讨其性能和实现细节。
65 1
|
2月前
|
存储 NoSQL Redis
Redis 哈希(Hash)
10月更文挑战第16天
40 1
|
2月前
|
存储 分布式计算 NoSQL
大数据-40 Redis 类型集合 string list set sorted hash 指令列表 执行结果 附截图
大数据-40 Redis 类型集合 string list set sorted hash 指令列表 执行结果 附截图
27 3
|
2月前
|
设计模式 NoSQL 网络协议
大数据-48 Redis 通信协议原理RESP 事件处理机制原理 文件事件 时间事件 Reactor多路复用
大数据-48 Redis 通信协议原理RESP 事件处理机制原理 文件事件 时间事件 Reactor多路复用
40 2
|
2月前
|
存储 缓存 NoSQL
大数据-46 Redis 持久化 RDB AOF 配置参数 混合模式 具体原理 触发方式 优点与缺点
大数据-46 Redis 持久化 RDB AOF 配置参数 混合模式 具体原理 触发方式 优点与缺点
63 1
|
2月前
|
NoSQL 关系型数据库 MySQL
Redis 事务特性、原理、具体命令操作全方位诠释 —— 零基础可学习
本文全面阐述了Redis事务的特性、原理、具体命令操作,指出Redis事务具有原子性但不保证一致性、持久性和隔离性,并解释了Redis事务的适用场景和WATCH命令的乐观锁机制。
281 0
Redis 事务特性、原理、具体命令操作全方位诠释 —— 零基础可学习
|
3月前
|
存储 缓存 NoSQL
redis的原理(四)
redis的原理(四)
|
3月前
|
存储 JSON NoSQL
redis基本数据结构(String,Hash,Set,List,SortedSet)【学习笔记】
这篇文章是关于Redis基本数据结构的学习笔记,包括了String、Hash、Set、List和SortedSet的介绍和常用命令。文章解释了每种数据结构的特点和使用场景,并通过命令示例演示了如何在Redis中操作这些数据结构。此外,还提供了一些练习示例,帮助读者更好地理解和应用这些数据结构。
redis基本数据结构(String,Hash,Set,List,SortedSet)【学习笔记】
|
2月前
|
消息中间件 NoSQL Kafka
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
151 0
|
3月前
|
存储 NoSQL 算法
5)深度解密 Redis 的哈希(Hash)
5)深度解密 Redis 的哈希(Hash)
28 0