简述
所谓脑裂,就是指在主从集群中,同时有两个主节点,它们都能接收写请求。而脑裂最直接的影响就是客户端不知道该往哪个主节点写入数据,结果就是不同的客户端会往不同的主机诶点上写入数据。而且,严重的话,脑裂会导致数据丢失。
在使用主从集群时,曾遇到过这样一个问题:主从集群有 1 个主库、5 个从库和 3 个哨兵实例,在使用过程中,发现客户端发送的一些数据丢失了,这直接影响了业务层的数据可靠性。
通过一系列的问题排查,我们才知道,这其实是主从集群中的脑裂问题导致的。
1.为什么会发生脑裂?
第一步:确认是不是数据同步出现了问题
在主从集群中发生数据丢失,最常见的原因是主库的数据还没有同步到从路,结果主库发生了故障,等从库升级为主库后,未同步的数据就丢失了。
如下图所示,新写入的 a:1、b:3 ,就是因为主库故障前未同步到从库而丢失了。
在这种情况的数据丢失,我们可以通过比对主从库上的复制进度差值来进行判断,也就是计算 master_repl_offset 和 slave_repl_offset 的差值。如果从库上的 slave_repl_offset 小于原主库的 master_repl_offset ,那么,我们就可以认为数据丢失是由于数据同步未完成就宕机导致的。
我们在部署主从集群时,也监测了主库上的 master_repl_offset ,及从库上的 slave_repl_offset 。但是,发现数据丢失后,我们检查了新主库升级前的 slave_repl_offset ,以及原主库的 master_repl_offset,它们是一致的,也就是说,这个升级为新主库的从库,在升级时已经和原主库的数据保持一致了。那么,为什么会出现客户端发送的数据丢失呢?
分析到这里,第一个设想被推翻了。这是,又想到所有的数据操作都是客户端发送的,那么是不是可以从客户端操作日志中发现问题呢?
第二步:排查客户端的操作日志,发现脑裂现象
在排查客户端的操作日志时,发现,在主从库切换的一段时间内,有一个客户端仍然在和原主库通信,并没有和升级的新主库进行交互。这就相当于主从集群中同时有了两个主库。根据这个迹象,我们就想到了在分布式主从集群发生故障时会出现的一个问题:脑裂。
但是,不同客户端给两个逐鹿发送数据写操作,按道理来说,只会导致新数据会分布在不同的主库上,并不会造成数据丢失。那么,为什么数据仍然丢失了呢?
到这里,我们的排查思路有一次终端了。不过,在分析问题时,“从原理出发”是追本溯源的好方法。脑裂是发生在主从切换过程中,所以把研究方向投向了主从切换的执行过程。
第三步:发现是原主库虚假故障导致的脑裂
我们是采用哨兵机制进行主从切换的,当主从切换发生时,一定是有超过预设数量(quorum)的哨兵实例和主库的心跳多超时了,才会把主库判断为客观下乡,然后,哨兵开始执行切换操作。哨兵切换完成后,客户端会和新主库进行通信,发送请求操作。
但是在切换过程中,既然客户端仍然是和原主库通信,这就表明,原主库并没有真的发生故障(例如主库进程挂掉)。猜测主库是由于某些原因无法处理请求,也没有响应哨兵的心跳,才被哨兵错误地判断为客观下线的。结果,在被判断下线后,原主库又重新开始处理请求了,而此时,哨兵还没有完成主从切换,客户端仍然可以和原主库通信,客户端发送的写请求就会在原主库上写入数据了。
为了验证原主库只是假故障,我们也查看了原主库所在服务器的资源使用监控记录。
的确,我们看到原主库所在的一段时间的 CPU 利用率突然特别高,这是我们在机器上部署的一个数据采集程序导致的。因为这个程序基本上把机器的 CPU 都用满了,导致 Redis 主库无法响应心跳了,这个期间,哨兵就把主库判断为客观下乡,开始主从切换了。不过,这个数据采集程序很快恢复正常,CPU 的使用率也降下来了。此时,原主库又开始正常服务请求了。
正是因为原主库并没有真的故障,在客户端操作日志中就看到了和原主库的通信记录。等到从库被升级为新主库后,主从集群里就有了两个主库,到这里,脑裂的原因就摸清楚了。
2.为什么脑裂会导致数据丢失?
主从库切换后,从库一旦升级为新主库,哨兵就会让原从库执行 slave of 命令,和新主库重新进行全量同步。而在全量同步执行的最后阶段,原主库需要清空本地的数据,加载新主库发送的 RDB 文件,这样一来,原主库在主从切换期间保存的新写数据就丢失了。
到这里,我们就完全弄明白了这个问题的发生过程和原因。
主从切换的过程中,如果原主库只是假故障,它会触发哨兵启动主从切换,一旦等它从假故障中恢复后,又开始处理请求,这样一来,就会和新主库同时存在,形成脑裂。等到哨兵让原主库和新主库做全量同步后,原主库在切换期间保存的数据就丢失了。
3.如何应对脑裂
刚刚说了,主从集群中的数据丢失事件,归根接地是因为发生了脑裂。所以,必须找到脑裂问题的策略。
既然问题是出现在原主库发生假故障后仍然能接收请求上,我们就开始在主从集群机制的配置项中查找是否有限制主库接收请求的设置。
Redis 提供了两个配置项来限制主库的请求处理,分别是 min-slaves-to-write
和 max-slaves-max-lag
。
min-slaves-to-write
:设置主库能进行数据同步的最少数据量
*max-slaves-max-lag
:设置了主从库间进行数据复制时,从库给主库发送 ACK 消息的最大演出(以秒为单位)
可以把 min-slaves-to-write
和 max-slaves-max-lag
搭配起来使用,分别给它们设置一定的阈值,假设为 N 和 T。这两个配置项组合后的要求是,主库连接的从库中至少有 N 个从库,和主库进行数据复制时的 ACK 消息延迟不能超过 T 秒,否则,主路就不会在接收客户端的请求了。
即使,原主库是假故障,它在假故障期间也无法响应哨兵心跳,也不能和从库进行同步,自然也就无法和从库进行 ACK 确认了。这样一来, min-slaves-to-write
和 max-slaves-max-lag
的组合要求就无法得到满足,原主库就会被限制接收客户端的请求,客户端也就不能在原主库中写入数据了。
等到新主库上线时,就只有新主库能接收和处理客户端的请求,此时,新写的数据会被直接写到新主库中。而原主库会被哨兵降为从库,即使它的数据被清空了,也不会有新数据丢失。
再来举个例子。
假设我们将 min-slaves-to-write
设置为 1,把 max-slaves-max-lag
设置为 12 s,把哨兵的 down-after-milliseconds 设置为 10s,主库因为某些原因卡主了 15s,导致哨兵判断客观下线,开始进行主从切换。同时,因为原主库卡主了 15s,没有一个从库能和原主库在 12s 内进行数据复制,原主库也无法收到客户端的请求了。这样一来,主从切换完成后,只有新主库可以接受请求,不会发生脑裂。
小结
脑裂是指在主从集群中,同时有2个主库都能接收写请求。在 Redis 切换过程中,如果发生了脑裂,客户端数据就会写入到原主库,原主库被降为从库,这些新写入的数据就丢失了。
脑裂发生的原因主要是原主库发生了假故障,总结下假故障的原因:
- 和主库部署在同一台服务器上的其他程序临时占用了大量资源(例如 CPU 资源),导致主库资源使用受限,短时间内无法响应心跳。其他程序不再使用资源时,主库又恢复正常。
- 主库自身遇到了阻塞的情况,例如,处理 bigkey 或是发送内存 swap(可以复习下《11.响应延迟的波动问题及解决方案》总结的导致实例阻塞的原因),短时间内无法响应心跳,导致阻塞解除后,又恢复正常的请求处理了。
为了应对脑裂,你可以在主从集群部署时,通过合理地配置参数 min-slaves-to-write
和 max-slaves-max-lag
,来预防脑裂的发生。
给你的建议是,假设从库有 N 个,可以将 min-slaves-to-write
设置为 K/2 + 1(如果 K 为 1 ,就设为1),将 max-slaves-max-lag
设置为十几秒(例如 10~20 秒),在这个配置下,如果有一半以上的从库和主库进行 ACK 消息延迟超过十几秒,就会进制主库接收客户端写请求。
这样一来,就可以避免脑裂带来的数据丢失问题,而且,也不会因为只有少数几个从库因为网络阻塞连不上主库,就进制主库接收请求了。