1. 是什么
Redis Hash(散列表)是一种 field-value pairs(键值对)集合类型,类似于 Python 中的字典、Java 中的 HashMap。一个 field 对应一个 value,你可以通过 field 在 O(1) 时间复杂度查 field 找关联的 field,也可以通过 field 来更新或者删除这个键值对。
Redis 的散列表 dict 由数组 + 链表构成,数组的每个元素占用的槽位叫做哈希桶,当出现散列冲突的时候就会在这个桶下挂一个链表,用“拉链法”解决散列冲突的问题。
简单地说就是将一个 key 经过散列计算均匀的映射到散列表上。
图 2-18
2. 修炼心法
Hash 数据类型底层存储数据结构实际上有两种。
dict 结构。
在 7.0 版本之前使用 ziplist,之后被 listpack 代替。
通常情况下使用 dict 数据结构存储数据,每个 field-value pairs
构成一个 dictEntry 节点来保存。
只有同时满足以下两个条件的时候,才会使用 listpack(7.0 版本之前使用 ziplist)数据结构来代替 dict 存储, 把 key-value 键值对按照 field 在前 value 在后,紧密相连的方式放到一次把每个键值对放到列表的表尾。
每个键值对中的 field 和 value 的字符串字节大小都小于
hash-max-listpack-value
配置的值(默认 64)。field-value pairs 键值对数量小于
hash-max-listpack-entries
配置的值(默认 512)。
每次向散列表写数据的时候,都会调用 t_hash.c
中的hashTypeConvertListpack()
函数来判断是否需要转换底层数据结构。
当插入和修改的数据不满足以上两个条件时,就把散列表底层存储结构转换成 dict
结构。需要注意的是,不能由 dict 退化成 listpack。
虽然使用了 listpack 就无法实现 O(1) 时间复杂度操作数据,但是使用 listpack 能大大减少内存占用,而且数据量比较小,性能并不是有太大差异。
为了对上层屏蔽散列表底层使用了不同数据结构存储,所以抽象了一个 hashTypeIterator 迭代器来实现散列表的查询。
Hashes 数据类型使用 listpack 作为存储数据时的情况,如图 2-19 所示。
图 2-19
listpack 数据结构在之前的已经介绍过, 接下来带你揭秘 dict 到底长啥样。
Redis 数据库就是一个全局散列表。正常情况下,我只会使用 ht_table[0]
散列表,图 2-20 是一个没有进行 rehash 状态下的字典。
图 2-20
dict 字典在源代码 dict.h
中使用 dict 结构体表示。
struct dict {
dictType *type;
// 真正存储数据的地方,分别存放两个指针
dictEntry **ht_table[2];
unsigned long ht_used[2];
long rehashidx;
int16_t pauserehash;
signed char ht_size_exp[2];
};
dictType *type
,存放函数的结构体,定义了一些函数指针,可以通过设置自定义函数,实现 dict 的 key 和 value 存放任何类型的数据。重点看
dictEntry **ht_table[2]
,存放了两个 dictEntry 的二级指针,指针分别指向了一个 dictEntry 指针的数组。ht_used[2]
,记录每个散列表使用了多少槽位(比如数组长度 32,使用了 12)。rehashidx
,用于标记是否正在执行 rehash 操作,-1 表示没有进行 rehash。如果正在执行 rehash,那么其值表示当前 rehash 操作执行的 ht_table[0] 散列表 dictEntry 数组的索引。pauserehash
表示 rehash 的状态,大于 0 时表示 rehash 暂停了,小于 0 表示出错了。
继续看 dictEntry,数组中每个元素都是 dictEntry 类型,就是这玩意存放了键值对,表示字典的一个节点。
typedef struct dictEntry {
void *key;
union {
void *val;
uint64_t u64;
int64_t s64;
double d;
} v;
struct dictEntry *next;
} dictEntry;
*key
指针指向键值对中的键,实际上指向一个 SDS 实例。v
是一个 union 联合体,表示键值对中的值,同一时刻只有一个字段有值,用联合体的目是节省内存。*val
如果值是非数字类型,那就使用这个指针存储。uint64_t u64
,值是无符号整数的时候使用这个字段存储。int64_t s64
,值是有符号整数时,使用该字段存储。double d
,值是浮点数是,使用该字段存储。
*next
指向下一个节点指针,当散列表数据增加,可能会出现不同的 key 得到的哈希值相等,也就是说多个 key 对应在一个哈希桶里面,这就是哈希冲突。Redis 使用拉链法,也就是用链表将数据串起来。
MySQL:“为啥 ht_table[2] 存放了两个指向散列表的指针?用一个散列表不就够了么。”
默认使用 ht_table [0]
进行读写数据,当散列表的数据越来越多的时候,哈希冲突严重会出现哈希桶的链表比较长,导致查询性能下降。
我为了唯快不破想了一个法子,当散列表保存的键值对太多或者太少的时候,需要通过 rehash(重新散列)对散列表进行扩容或者缩容。
扩容和缩容
为了高性能,减少哈希冲突,我会创建一个大小等于
ht_used[0] * 2
的散列表ht_table[1]
,也就是每次扩容时根据散列表ht_table [0]
已使用空间扩大一倍创建一个新散列表ht_table [1]
。反之,如果是缩容操作,就根据ht_table [0]
已使用空间缩小一倍创建一个新的散列表。重新计算键值对的哈希值,得到这个键值对在新散列表
ht_table [1]
的桶位置,将键值对迁移到新的散列表上。所有键值对迁移完成后,修改指针,释放空间。具体是把
ht_table[0]
指针指向扩容后的散列表,回收原来小的散列表内存空间,ht_table[1]
指针指向NULL
,为下次扩容或者缩容做准备。
MySQL:“什么时候会触发扩容?”
当前没有执行
BGSAVE
或者BGREWRITEAOF
命令,同时负载因子大于等于 1。也就是当前没有 RDB 子进程和 AOF 重写子进程在工作,毕竟这俩操作还是比较容易对性能造成影响的,就不扩容火上浇油了。正在执行
BGSAVE
或者BGREWRITEAOF
命令,负载因子大于等于 5。(这时候哈希冲突太严重了,再不触发扩容,查询效率太慢了)。
负载因子 = 散列表存储 dictEntry 节点数量 / 散列表桶个数
。完美情况下,每个哈希桶存储一个 dictEntry 节点,这时候负载因子 = 1。
MySQL:“需要迁移数据量很大,rehash 操作岂不是会长时间阻塞主线程?”
为了防止阻塞主线程造成性能问题,我并不是一次性把全部的 key 迁移,而是分多次,将迁移操作分散到每次请求中,避免集中式 rehash 造成长时间阻塞,这个方式叫渐进式 rehash。
在执行渐进式 rehash 期间,dict 会同时使用 ht_table[0]
和 ht_table[1]
两个散列表,rehash 具体步骤如下。
将
rehashidx
设置成 0,表示 rehash 开始执行。在 rehash 期间,服务端每次处理客户端对 dict 散列表执行添加、查找、删除或者更新操作时,除了执行指定操作以外,还会检查当前 dict 是否处于 rehash 状态,是的话就把散列表
ht_table[0]
上索引位置为rehashidx
的桶的链表的所有键值对 rehash 到散列表ht_table[1]
上,这个哈希桶的数据迁移完成,就把rehashidx
的值加 1,表示下一次要迁移的桶所在位置。当所有的键值对迁移完成后,将
rehashidx
设置成 -1,表示 rehash 操作已完成。
MySQL:“rehash 过程中,字典的删除、查找、更新和添加操作,要从两个 ht_table 都搞一遍么?”
删除、修改和查找可能会在两个散列表进行,第一个散列表没找到就到第二个散列表进行查找。但是增加操作只会在新的散列表上进行。
MySQL:“如果请求比较少,岂不是会很长时间都要使用两个散列表。”
好问题,在 Redis Server 初始化时,会注册一个时间事件,定时执行 serverCron
函数,其中包含 rehash 操作用于辅助迁移,避免这个问题。
serverCron
函数除了做 rehash 以外,主要处理如下工作。
过期 key 删除。
监控服务运行状态。
更新统计数据。
渐进式 rehash。
触发 BGSAVE / AOF rewrite 以及停止子进程。
处理客户端超时。
......
是不是很贴心,既能保证性能,又能避免内存浪费。好了,今天散列表底层数据结构实现原理就到这里。后面我将给大家分享如何使用 Hash 实现购物车功能。
2. 好文推荐
Redis Set 底层数据结构实现原理与实战
Redis List 底层三种数据结构原理剖析
图解 Redis String 底层数据结构 SDS 与计数器实战
最后,原创不易,免费的点赞来一个。关注我,并设置星标,以免接收不到我的技术文章推送。