Redis -- 全记录(面试)

news2024/11/8 3:02:03

目录

All :

缓存穿透

缓存击穿

互斥锁

逻辑过期

比较 :

缓存雪崩

redis怎么和数据库保持一致

双写一致性 :

延迟双删 :

保证强一致性 :

允许一定的延迟

基于mq的异步通知

基于Canal的异步通知

总结

Redis的持久化

RDB

AOF

总结

Redis数据过期策略

惰性删除

定期删除

总结 :

Redis数据淘汰策略 :

redis分布式锁

抢卷场景

1 . 用synchorized实现锁 :

2 . redis实现分布式锁

1 . setnx

2.redisson

3.可重入问题

4.主从一致性

5.总结

Redis集群方案 :

主从复制

1.主从全量同步

2.主从增量同步

哨兵模式

分片集群

总结

Reids单线程问题

用户空间和内核空间

阻塞IO

非阻塞IO

IO多路复用

Redis网络模型

总结 :


All :

缓存穿透

例 : 一个get请求 : api/news/getById/1

缓存穿透 :缓存穿透是指客户端请求的数据在缓存中和数据库中都不存在,这样缓存永远不会生效,这些请求都会打到数据库。

常见的解决方案有两种:

  • 缓存空对象:查询返回的数据为空,仍把这个空结果进行缓存

    • 优点:实现简单,维护方便

    • 缺点:

      • 额外的内存消耗

      • 可能造成短期的不一致:后面id=1的数据添加之后,造成数据库和缓存数据不一致的问题 ;

  • 布隆过滤

    • 优点:内存占用较少,没有多余key

    • 缺点:

      • 实现复杂

      • 存在误判可能

缓存空对象思路分析:当我们客户端访问不存在的数据时,先请求redis,但是此时redis中没有数据,此时会访问到数据库,但是数据库中也没有数据,这个数据穿透了缓存,直击数据库,我们都知道数据库能够承载的并发不如redis这么高,如果大量的请求同时过来访问这种不存在的数据,这些请求就都会访问到数据库,简单的解决方案就是哪怕这个数据在数据库中也不存在,我们也把这个数据存入到redis中去,这样,下次用户过来访问这个不存在的数据,那么在redis中也能找到这个数据就不会进入到缓存了

布隆过滤:布隆过滤器其实采用的是哈希思想来解决这个问题,通过一个庞大的二进制数组,走哈希思想去判断当前这个要查询的这个数据是否存在,如果布隆过滤器判断存在,则放行,这个请求会去访问redis,哪怕此时redis中的数据过期了,但是数据库中一定存在这个数据,在数据库中查询出来这个数据后,再将其放入到redis中,

bitmap(位图) : 相当于一个以(bit)位为单位的数组 ,数组中只存在0和1;

布隆过滤器的作用 : 检索一个元素是否在一个集合中 ;

可能存在误判 :

  • id为3的数据原本不存在 , 然后由于之前的数据值id=3的所有hash位置全部为1 ,这是会判断id=3的数据存在 , 造成了误判 ;

误判率 : 数组越小误判率就越大 ,数组越大误判率就越小 , 但是同时带来了更多的内存消耗 ;

一般设置误判率为0.05 ;

缓存击穿

缓存击穿 : 意思是对于设置了过期时间的key,缓存在某个时间点过期的时候,恰好这时间点对这个Key有大量的并发请求过来,这些请求发现缓存过期一般都会从后端 DB 加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把 DB 压垮。

解决方案 :

  • 互斥锁

  • 逻辑过期

互斥锁

逻辑过期

实现方案 :

①:在设置key的时候,设置一个过期时间字段一块存入缓存中,不给当前key设置过期时间

②:当查询的时候,从redis取出数据后判断时间是否过期

③:如果过期则开通另外一个线程进行数据同步,当前线程正常返回数据,这个数据不是最新

比较 :

如果选择数据的强一致性,建议使用分布式锁的方案,性能上可能没那么高,锁需要等,也有可能产生死锁的问题

如果选择key的逻辑删除,则优先考虑的高可用性,性能比较高,但是数据同步这块做不到强一致。

缓存雪崩

是指在同一时段大量的缓存key同时失效或者Redis服务宕机,导致大量请求到达数据库 , 带来巨大压力 ;

解决方案 :

  • 给不同Key的TTL添加随机值

  • 利用Redis集群提高服务的可用性 ; 哨兵模式 , 集群模式

  • 给川村业务添加降级限流策略 ; nginx或spring cloud eteway

  • 给业务添加多级缓存 ;

redis怎么和数据库保持一致

需要先介绍项目的业务背景 ;

保证缓存一致性需要根据具体的需求来定:

1、对数据实时性有一定要求

对数据实时性有一定要求即数据库数据更新需要近实时查询到最新的数据,针对这种情况可采用延迟双删、Canal+MQ异步同步的方式。

2、对数据实时性要求不高

使用定时任务的方式定时更新缓存。

3、对数据实时性要求非常高

此类场景不适合用缓存,直接使用数据库即可。

双写一致性 :

当修改了数据库的数也要同步更新缓存的数据 , 缓存和数据库的数据要保持一致 ;

  • 读操作 : 缓存命中 ,直接返回 ;未命中 ,查询数据库 ,写入缓存 ,设定超时时间 ;

  • 写操作 : 延迟双删

延迟双删 :

1 . 先删除缓存还是先修改数据库 :

2 . 为什么要删两次 : 避免脏数据 ;

3 . 为什么要延时删除 : 因为数据库是主从架构的 , 是读写分离的, 数据从主节点到从节点同步需要时间 , 因为延时的时间不好确定 , 所以也会有脏数据的风险 ;

保证强一致性 :

  • 采用分布式锁 ;

一般存入缓存的数据都是读多写少的 , 如果读少写多的数据不建议放入缓存中 , 直接操作数据库即可 ;

读写锁 :

代码实现 :

读操作(利用redis实现好的读写锁) :

其它线程可以读 , 不能写 ;

写操作 :

获取读锁 ,为排他锁 ;

读写锁的性能不高

允许一定的延迟

实现的方法

  • 异步通知 : 最终保持数据的一致性 ;

基于mq的异步通知

将修改缓存的消息发送到mq(消息队列)中 , 然后在缓存服务中监听 , 监听到之后 , 对缓存就行更新 ;

这里需要保证MQ的可靠性 , 就能实现数据最终的一致性 ;

基于Canal的异步通知

mysql一但发生了变化,就会记录到BINLOG的二进制日志中 ;

  • 二进制日志(BINLOG)记录了所有的DDL(数据定义语言)语句和DML(数据操纵语言)语句,但不包括数据查询(Select ,SHOW)语句 ;

在缓存服务的模块中 ,会监听binlog , 然后更新缓存 ;

总结

例题 :

面试官:redis做为缓存,mysql的数据如何与redis进行同步呢?(双写一致性)

候选人:嗯!就说我最近做的这个项目,里面有xxxx(根据自己的简历上写)的功能,需要让数据库与redis高度保持一致,因为要求时效性比较高,我们当时采用的读写锁保证的强一致性。

我们采用的是redisson实现的读写锁,在读的时候添加共享锁,可以保证读读不互斥,读写互斥。当我们更新数据的时候,添加排他锁,它是读写,读读都互斥,这样就能保证在写数据的同时是不会让其他线程读数据的,避免了脏数据。这里面需要注意的是读方法和写方法上需要使用同一把锁才行。

面试官:那这个排他锁是如何保证读写、读读互斥的呢?

候选人:其实排他锁底层使用也是setnx,保证了同时只能有一个线程操作锁住的方法

面试官:你听说过延时双删吗?为什么不用它呢?

候选人:延迟双删,如果是写操作,我们先把缓存中的数据删除,然后更新数据库,最后再延时删除缓存中的数据,其中这个延时多久不太好确定,在延时的过程中可能会出现脏数据,并不能保证强一致性,所以没有采用它。

面试官:redis做为缓存,mysql的数据如何与redis进行同步呢?(双写一致性)

候选人:嗯!就说我最近做的这个项目,里面有xxxx(根据自己的简历上写)的功能,数据同步可以有一定的延时(符合大部分业务)

我们当时采用的阿里的canal组件实现数据同步:不需要更改业务代码,部署一个canal服务。canal服务把自己伪装成mysql的一个从节点,当mysql数据更新以后,canal会读取binlog数据,然后在通过canal的客户端获取到数据,更新缓存即可。

Redis的持久化

RDB

RDB是一个快照文件,它是把redis内存存储的数据写到磁盘上。

当Redis实力故障重启之后 , 从磁盘读取快照文件之后 , 恢复数据 ;

主动备份 :

  • save : 主进程

  • bgsave : 子进程

Redis内部有出发RDB的机制 ,可以在redis.conf文件中找到 , 格式如下 :

​
# 900秒内 ,如果至少有一个key被修改 ,则执行bgsave ;
save 900 1

​

RDB执行原理 :

bgsave开始时会fork(相当于克隆)主进程得到一个子进程 , 子进程共享主进程的内存数据 。 完成fork之后读取内存数据并写入RDB文件。

  • 这个过程是异步的 , 几乎不会阻塞主进程 ,但是在开启新进程的时候 ,由于拷贝页表 ,会阻塞 ,但是几乎可以忽略不记 ;

AOF

AOF指Append Only File(追加文件) , Redis处理的每一个写命令都会记录在OF文件 , 可以看做是命令日志 ;

AOF默认是关闭 , 需要修改redis.conf开启 :

# 是否开启AOF功能,默认是no
appendonly yes
# 指定AOF文件的名称
appendfilename "appendonly.aof"

AOF的命令记录的频率也可以通过redis.conf文件来配 :

总结

对比 :

面试官:redis做为缓存,数据的持久化是怎么做的?

候选人:在Redis中提供了两种数据持久化的方式:1、RDB 2、AOF

面试官:这两种持久化方式有什么区别呢?

候选人:RDB是一个快照文件,它是把redis内存存储的数据写到磁盘上,当redis实例宕机恢复数据的时候,方便从RDB的快照文件中恢复数据。

AOF的含义是追加文件,当redis操作写命令的时候,都会存储这个文件中,当redis实例宕机恢复数据的时候,会从这个文件中再次执行一遍命令来恢复数据

面试官:这两种方式,哪种恢复的比较快呢?

候选人:RDB因为是二进制文件,在保存的时候体积也是比较小的,它恢复的比较快,但是它有可能会丢数据,我们通常在项目中也会使用AOF来恢复数据,虽然AOF恢复的速度慢一些,但是它丢数据的风险要小很多,在AOF文件中可以设置刷盘策略,我们当时设置的就是每秒批量写入一次命令

Redis数据过期策略

过期策略 :

  • 惰性删除

惰性删除

设置key的过期时间之后 , 不去管它 , 当需要使用该key是,我们再检测其是否过期 , 如果过期 , 我们就删掉 ;

例 :

set name zhangshan 10 # 10s过期时间
get name # 发现name过期了 , 直接删除key ;

优点 :

  • 对CPU友好 , 只会在使用该key的时候才会进行过期检查 , 低于很多利用不到的key就不用浪费时间进行过期检查 ;

缺点 :

  • 对内存不友好 , 如果一个key已经过期 , 但是一直没有使用, 那么key就会一致存在内存中 , 内存永远不会得到释放 ;

定期删除

定期删除,就是说每隔一段时间,我们就对一些key进行检查,删除里面过期的key

定期清理的两种模式:

  • SLOW模式是定时任务,执行频率默认为10hz,每次不超过25ms,以通过修改配置文件redis.conf 的 hz 选项来调整这个次数

  • FAST模式执行频率不固定,每次事件循环会尝试执行,但两次间隔不低于2ms,每次耗时不超过1ms

优点:可以通过限制删除操作执行的时长和频率来减少删除操作对 CPU 的影响。另外定期删除,也能有效释放过期键占用的内存。

缺点:难以确定删除操作执行的时长和频率。

Redis的过期删除策略:惰性删除 + 定期删除两种策略进行配合使用

总结 :

  • 惰性删除 : 访问key的时候判断是否过期 ,如果过期,则删除

  • 定性删除 : 定期检查一定量的key是否过期(Slow + Fast模式)

Redis的过期删除策略:惰性删除 + 定期删除两种策略进行配合使用

面试官:Redis的数据过期策略有哪些 ?

候选人

嗯~,在redis中提供了两种数据过期删除策略

第一种是惰性删除,在设置该key过期时间后,我们不去管它,当需要该key时,我们在检查其是否过期,如果过期,我们就删掉它,反之返回该key。

第二种是 定期删除,就是说每隔一段时间,我们就对一些key进行检查,删除里面过期的key

定期清理的两种模式:

  • SLOW模式是定时任务,执行频率默认为10hz,每次不超过25ms,以通过修改配置文件redis.conf 的 hz 选项来调整这个次数

  • FAST模式执行频率不固定,每次事件循环会尝试执行,但两次间隔不低于2ms,每次耗时不超过1ms

Redis的过期删除策略:惰性删除 + 定期删除两种策略进行配合使用。

Redis数据淘汰策略 :

内存淘汰策略 : 当Redis中的内存不够用时,此时在向Redis中添加新的key,那么Redis就会按照某一种规则将内存中的数据删除掉,这种数据的删除规则被称之为内存的淘汰策略。

Redis支持8种不同策略来选择要删除的key:

  • noeviction: 不淘汰任何key,但是内存满时不允许写入新数据,默认就是这种策略。

  • volatile-ttl: 对设置了TTL的key,比较key的剩余TTL值,TTL越小越先被淘汰

  • allkeys-random:对全体key ,随机进行淘汰。

  • volatile-random:对设置了TTL的key ,随机进行淘汰。

  • allkeys-lru: 对全体key,基于LRU算法进行淘汰

  • volatile-lru: 对设置了TTL的key,基于LRU算法进行淘汰

  • allkeys-lfu: 对全体key,基于LFU算法进行淘汰

  • volatile-lfu: 对设置了TTL的key,基于LFU算法进行淘汰

LRULeast Recently Used)最近最少使用。用当前时间减去最后一次访问时间,这个值越大则淘汰优先级越高。

LFULeast Frequently Used)最少频率使用。会统计每个key的访问频率,值越小淘汰优先级越高。

数据淘汰策略 :

1.优先使用 allkeys-lru 策略。充分利用 LRU 算法的优势,把最近最常访问的数据留在缓存中。如果业务有明显的冷热数据区分,建议使用。

2.如果业务中数据访问频率差别不大,没有明显冷热数据区分,建议使用 allkeys-random,随机选择淘汰。

3.如果业务中有置顶的需求,可以使用 volatile-lru 策略,同时置顶数据不设置过期时间,这些数据就一直不被删除,会淘汰其他设置过期时间的数据。

4.如果业务中有短时高频访问的数据,可以使用 allkeys-lfu 或 volatile-lfu 策略。

其它问题 :

总结 :

面试官:Redis的数据淘汰策略有哪些 ?

候选人

嗯,这个在redis中提供了很多种,默认是noeviction,不删除任何数据,内部不足直接报错

是可以在redis的配置文件中进行设置的,里面有两个非常重要的概念,一个是LRU,另外一个是LFU

LRU的意思就是最少最近使用,用当前时间减去最后一次访问时间,这个值越大则淘汰优先级越高。

LFU的意思是最少频率使用。会统计每个key的访问频率,值越小淘汰优先级越高

我们在项目设置的allkeys-lru,挑选最近最少使用的数据淘汰,把一些经常访问的key留在redis中

面试官:数据库有1000万数据 ,Redis只能缓存20w数据, 如何保证Redis中的数据都是热点数据 ?

候选人

嗯,我想一下~~

可以使用 allkeys-lru (挑选最近最少使用的数据淘汰)淘汰策略,那留下来的都是经常访问的热点数据

面试官:Redis的内存用完了会发生什么?

候选人

嗯~,这个要看redis的数据淘汰策略是什么,如果是默认的配置,redis内存用完以后则直接报错。我们当时设置的 allkeys-lru 策略。把最近最常访问的数据留在缓存中。

redis分布式锁

分布式锁使用的场景:

集群情况下的定时任务、抢单、幂等性场景

抢卷场景

多线程并发可能导致超卖问题 :

解决 :

1 . 用synchorized实现锁 :

如果是单体项目是没有问题的 , 但是在服务集群部署的情况之下, synchorized锁是本地的锁 , 属于JVM的 , 不同服务有自己的JVM , 所以需要分布式锁 ;

2 . redis实现分布式锁

1 . setnx

Redis实现分布式锁 主要利用Redis的setnx命令。setnx是SET if not exists(如果不存在则set)的简写

  • 获取锁 :

    # 添加锁 , NX是互斥 , FX : 设置超时时间
    set lock value NX EX 10
    • 设置超时时间 : 防止某线程在获取锁成功之后执行业务的时候 ,服务宕机 , 造成锁释放不了 ;

    • 如何合理控制锁的有效时长 : 给锁续期 , 另开一个线程监控执行时间 ;

  • 释放锁 :

    del key

2.redisson

代码实现 :

其中加锁 , 设置过期时间等操作都是基于lua脚本完成 ;

  • lua脚本 : 调用redis的多条命令, 保证命令的原子性 ;

3.可重入问题

可重入 :同一个线程可重复获取同一个锁 ;

add1()调用add2()方法 , 那么add2()能否获取锁成功呢?

  • add1()和add2()是在同一线程下的 , 每个线程有自己特定的线程id ;

  • redissson根据线程id判断是否是同一线程 所以add2()能获取锁成功 ;

  • 和Java中多线程的ReentrantLock类似 ;

可重入好处: :

  • 避免多个锁之间 ,产生死锁问题 ;

  • 锁的粒度比较细的时候 , 会用到 ;

实现 :

  • 利用hash结构记录线程id和重入次数

4.主从一致性

主从结构中 :

  • 主节点主要负责写数据;

  • 从结点主要负责读数据 ;

当主节点宕机 , 会在从结点中选取一个当作主节点 ;

但是会出现下面情况 :

解决 :

RedLock(红锁):不能只在一个redis实例上创建锁,应该是在多个redis实例上创建锁(n / 2 + 1),避免在一个redis实例上加锁:

5.总结

面试官:Redis分布式锁如何实现 ?

候选人:嗯,在redis中提供了一个命令setnx(SET if not exists)

由于redis的单线程的,用了命令之后,只能有一个客户端对某一个key设置值,在没有过期或删除key的时候是其他客户端是不能设置这个key的

面试官:好的,那你如何控制Redis实现分布式锁有效时长呢?

候选人:嗯,的确,redis的setnx指令不好控制这个问题,我们当时采用的redis的一个框架redisson实现的。

在redisson中需要手动加锁,并且可以控制锁的失效时间和等待时间,当锁住的一个业务还没有执行完成的时候,在redisson中引入了一个看门狗机制,就是说每隔一段时间就检查当前业务是否还持有锁,如果持有就增加加锁的持有时间,当业务执行完成之后需要使用释放锁就可以了

还有一个好处就是,在高并发下,一个业务有可能会执行很快,先客户1持有锁的时候,客户2来了以后并不会马上拒绝,它会自旋不断尝试获取锁,如果客户1释放之后,客户2就可以马上持有锁,性能也得到了提升。

面试官:好的,redisson实现的分布式锁是可重入的吗?

候选人:嗯,是可以重入的。这样做是为了避免死锁的产生。这个重入其实在内部就是判断是否是当前线程持有的锁,如果是当前线程持有的锁就会计数,如果释放锁就会在计算上减一。在存储数据的时候采用的hash结构,大key可以按照自己的业务进行定制,其中小key是当前线程的唯一标识,value是当前线程重入的次数

面试官:redisson实现的分布式锁能解决主从一致性的问题吗

候选人:这个是不能的,比如,当线程1加锁成功后,master节点数据会异步复制到slave节点,此时当前持有Redis锁的master节点宕机,slave节点被提升为新的master节点,假如现在来了一个线程2,再次加锁,会在新的master节点上加锁成功,这个时候就会出现两个节点同时持有一把锁的问题。

我们可以利用redisson提供的红锁来解决这个问题,它的主要作用是,不能只在一个redis实例上创建锁,应该是在多个redis实例上创建锁,并且要求在大多数redis节点上都成功创建锁,红锁中要求是redis的节点数量要过半。这样就能避免线程1加锁成功后master节点宕机导致线程2成功加锁到新的master节点上的问题了。

但是,如果使用了红锁,因为需要同时在多个节点上都添加锁,性能就变的很低了,并且运维维护成本也非常高,所以,我们一般在项目中也不会直接使用红锁,并且官方也暂时废弃了这个红锁

面试官:好的,如果业务非要保证数据的强一致性,这个该怎么解决呢?

候选人:嗯~,redis本身就是支持高可用的,做到强一致性,就非常影响性能,所以,如果有强一致性要求高的业务,建议使用zookeeper实现的分布式锁,它是可以保证强一致性的。

Redis集群方案 :

在Redis中提供的集群方案有三种 :

  • 主从复制

  • 哨兵模式

  • 分片集群

主从复制

1.主从全量同步

流程 :

2.主从增量同步

slave重启或后期数据变化 ;

流程 :

1.从节点请求主节点同步数据,主节点判断不是第一次请求,不是第一次就获取从节点的offset值

2.主节点从命令日志中获取offset值之后的数据,发送给从节点进行数据同步

哨兵模式

主从模式保证不了redis的高可用 , 比如主节点宕机;

Redis提供了哨兵(Sentinel)机制来实现主从集群的自动故障恢复。

服务状态监控 :

Sentinel基于心跳机制监测服务状态,每隔1秒向集群的每个实例发送ping命令:

  • 主观下线:如果某sentinel节点发现某实例未在规定时间响应,则认为该实例主观下线

  • 客观下线:若超过指定数量(quorum)的sentinel都认为该实例主观下线,则该实例客观下线。quorum值最好超过Sentinel实例数量的一半。

哨兵选主规则 :

  • 首先判断主与从节点断开时间长短,如超过指定值就排除该从节点

  • 然后判断从节点的slave-priority值,越小优先级越高

  • 如果slave-prority一样,则判断slave节点的offset值,越大优先级越高

  • 最后是判断slave节点的运行id大小,越小优先级越高。

脑裂:

集群脑裂是由于主节点和从节点和sentinel处于不同的网络分区,使得sentinel没有能够心跳感知到主节点,所以通过选举的方式提升了一个从节点为主,这样就存在了两个master,就像大脑分裂了一样,这样会导致客户端还在老的主节点那里写入数据,新节点无法同步数据,当网络恢复后,sentinel会将老的主节点降为从节点,这时再从新master同步数据,就会导致数据丢失

解决 :

我们可以修改redis的配置,可以设置最少的从节点数量以及缩短主从数据同步的延迟时间,达不到要求就拒绝请求,就可以避免大量的数据丢失 ;

分片集群

主从和哨兵可以解决高可用、高并发读的问题。但是依然有两个问题没有解决:

  • 海量数据存储问题

  • 高并发写的问题

使用分片集群可以解决上述问题,分片集群特征:

  • 集群中有多个master,每个master保存不同数据 , 并发写的能力大大提高 ;

  • 每个master都可以有多个slave节点

  • master之间通过ping监测彼此健康状态 , 不需要哨兵了 ;

  • 客户端请求可以访问集群任意节点,最终都会被转发到正确节点 , 做了自动的路由 ;

Redis分片集群引入了哈希槽的概念, Redis集群有16384个哈希槽,每个key1通过CRC16校验之后对16384取模来决定防止在那个槽,集群的每个节点负责一部分的hash槽 ;

总结

面试官:Redis集群有哪些方案, 知道嘛 ?

候选人:嗯~~,在Redis中提供的集群方案总共有三种:主从复制、哨兵模式、Redis分片集群

面试官:那你来介绍一下主从同步

候选人:嗯,是这样的,单节点Redis的并发能力是有上限的,要进一步提高Redis的并发能力,可以搭建主从集群,实现读写分离。一般都是一主多从,主节点负责写数据,从节点负责读数据,主节点写入数据之后,需要把数据同步到从节点中

面试官:能说一下,主从同步数据的流程

候选人:嗯~~,好!主从同步分为了两个阶段,一个是全量同步,一个是增量同步

全量同步是指从节点第一次与主节点建立连接的时候使用全量同步,流程是这样的:

第一:从节点请求主节点同步数据,其中从节点会携带自己的replication id和offset偏移量。

第二:主节点判断是否是第一次请求,主要判断的依据就是,主节点与从节点是否是同一个replication id,如果不是,就说明是第一次同步,那主节点就会把自己的replication id和offset发送给从节点,让从节点与主节点的信息保持一致。

第三:在同时主节点会执行bgsave,生成rdb文件后,发送给从节点去执行,从节点先把自己的数据清空,然后执行主节点发送过来的rdb文件,这样就保持了一致

当然,如果在rdb生成执行期间,依然有请求到了主节点,而主节点会以命令的方式记录到缓冲区,缓冲区是一个日志文件,最后把这个日志文件发送给从节点,这样就能保证主节点与从节点完全一致了,后期再同步数据的时候,都是依赖于这个日志文件,这个就是全量同步

增量同步指的是,当从节点服务重启之后,数据就不一致了,所以这个时候,从节点会请求主节点同步数据,主节点还是判断不是第一次请求,不是第一次就获取从节点的offset值,然后主节点从命令日志中获取offset值之后的数据,发送给从节点进行数据同步

面试官:怎么保证Redis的高并发高可用

候选人:首先可以搭建主从集群,再加上使用redis中的哨兵模式,哨兵模式可以实现主从集群的自动故障恢复,里面就包含了对主从服务的监控、自动故障恢复、通知;如果master故障,Sentinel会将一个slave提升为master。当故障实例恢复后也以新的master为主;同时Sentinel也充当Redis客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis的客户端,所以一般项目都会采用哨兵的模式来保证redis的高并发高可用;

面试官:你们使用redis是单点还是集群,哪种集群

候选人:嗯!,我们当时使用的是主从(1主1从)加哨兵。一般单节点不超过10G内存,如果Redis内存不足则可以给不同服务分配独立的Redis主从节点。尽量不做分片集群。因为集群维护起来比较麻烦,并且集群之间的心跳检测和数据通信会消耗大量的网络带宽,也没有办法使用lua脚本和事务;

面试官:redis集群脑裂,该怎么解决呢?

候选人:嗯! 这个在项目很少见,不过脑裂的问题是这样的,我们现在用的是redis的哨兵模式集群的

有的时候由于网络等原因可能会出现脑裂的情况,就是说,由于redis master节点和redis salve节点和sentinel处于不同的网络分区,使得sentinel没有能够心跳感知到master,所以通过选举的方式提升了一个salve为master,这样就存在了两个master,就像大脑分裂了一样,这样会导致客户端还在old master那里写入数据,新节点无法同步数据,当网络恢复后,sentinel会将old master降为salve,这时再从新master同步数据,这会导致old master中的大量数据丢失。

关于解决的话,我记得在redis的配置中可以设置:第一可以设置最少的salve节点个数,比如设置至少要有一个从节点才能同步数据,第二个可以设置主从数据复制和同步的延迟时间,达不到要求就拒绝请求,就可以避免大量的数据丢失;

面试官:redis的分片集群有什么作用

候选人:分片集群主要解决的是,海量数据存储的问题,集群中有多个master,每个master保存不同数据,并且还可以给每个master设置多个slave节点,就可以继续增大集群的高并发能力。同时每个master之间通过ping监测彼此健康状态,就类似于哨兵模式了。当客户端请求可以访问集群任意节点,最终都会被转发到正确节点

面试官:Redis分片集群中数据是怎么存储和读取的?

候选人

嗯~,在redis集群中是这样的

Redis 集群引入了哈希槽的概念,有 16384 个哈希槽,集群中每个主节点绑定了一定范围的哈希槽范围, key通过 CRC16 校验后对 16384 取模来决定放置哪个槽,通过槽找到对应的节点进行存储。

取值的逻辑是一样的

Reids单线程问题

  • Redis是纯内存操作,执行速度非常快

  • 采用单线程,避免不必要的上下文切换可竞争条件,多线程还要考虑线程安全问题

  • 使用I/O多路复用模型,非阻塞IO ;

I/O多路复用模型 :

Redis是纯内存操作 , 执行速度非常快 , 它的性能瓶颈是网络延迟而不是执行熟读, I/O多路复用模型主要就是实现高效的网络请求 ;

用户空间和内核空间

  • Linux系统中一个进程使用的内存情况划分两部分:内核空间、用户空间

  • 用户空间只能执行受限的命令(Ring3),而且不能直接调用系统资源

    必须通过内核提供的接口来访问

  • 内核空间可以执行特权命令(Ring0),调用一切系统资源

Linux系统为了提高IO效率,会在用户空间和内核空间都加入缓冲区:

  • 写数据时,要把用户缓冲数据拷贝到内核缓冲区,然后写入设备

  • 读数据时,要从设备读取数据到内核缓冲区,然后拷贝到用户缓冲区

性能消耗 :

  • 一直等待数据 ;

  • 数据的拷贝 ,读写数据的时候来回的拷贝会产生性能消耗 ;

优化点 :

  • 减少读数据等待 ;

  • 减少用户空间和内核空间数据的拷贝 ;

阻塞IO

两个阶段都必须阻塞等待 :

可以看到,阻塞IO模型中 ,用户进程在两个阶段都是阻塞状态 ;

非阻塞IO

非阻塞IO的recvfrom操作会立即返回结果,而不是阻塞用户进程 ;

  • 非阻塞IO模型中 ,用户进程在第一个阶段是非阻塞,第二个阶段是阻塞状态。虽然是非阻塞,但性能并没有得到提高。忙等机制会导致CPU空转,CPU使用率暴增 ;

IO多路复用

利用单个线程来同时监听多个Socket,并且某个Socket可读,可写时得到通知,从而避免无效的等待,充分利用CPU资源 ;

面试官:能解释一下I/O多路复用模型?

候选人:嗯~~,I/O多路复用是指利用单个线程来同时监听多个Socket ,并在某个Socket可读、可写时得到通知,从而避免无效的等待,充分利用CPU资源。目前的I/O多路复用都是采用的epoll模式实现,它会在通知用户进程Socket就绪的同时,把已就绪的Socket写入用户空间,不需要挨个遍历Socket来判断是否就绪,提升了性能。

其中Redis的网络模型就是使用I/O多路复用结合事件的处理器来应对多个Socket请求,比如,提供了连接应答处理器、命令回复处理器,命令请求处理器;

在Redis6.0之后,为了提升更好的性能,在命令回复处理器使用了多线程来处理回复事件,在命令请求处理器中,将命令的转换使用了多线程,增加命令转换速度,在命令执行的时候,依然是单线程

Redis网络模型

就是IO多路复用 + 事件派发 ;

不同的事件交给不同的处理器处理 ;

6.0版本以后加入多线程 :

进一步加快 ;

总结 :

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2129911.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【算法专题】搜索算法

二叉树剪枝 LCR 047. 二叉树剪枝 - 力扣(LeetCode) 本题要求我们将全部为0的二叉树去掉,也就是剪枝,当我们举一个具体的例子进行模拟时,会发现,只关注于对其中一个子树的根节点进行剪枝,由于我…

Docker部署MySQL8.0.39报错解决方案

Docker部署MySQL8.0.39报错解决方案 2024-09-11T06:09:09.317582Z 0 [Warning] [MY-010139] [Server] Changed limits: max_open_files: 1024 (requested 8161) 2024-09-11T06:09:09.317586Z 0 [Warning] [MY-010142] [Server] Changed limits: table_open_cache: 431 (reques…

李彦宏内部讲话曝光,谈大模型三大认知误区:智能体还是非共识

“外界对大模型有相当多的误解,”近日据媒体报道,李彦宏的一则内部讲话曝光。在最近一次和员工交流中,李彦宏谈及三个大模型认知误区,涵盖了大模型竞争、开源模型效率、智能体趋势等热点话题。 李彦宏认为未来大模型之间的差距可…

【Axure教程】高级搜索

高级搜索可以通过使用精确的关键词或短语,帮助用户找到特定的内容。尤其在面对大量搜索结果时,通过过滤条件缩小范围,能够节省时间。他允许用户使用多个条件进行组合(例如条件匹配、模糊搜索、区间筛选等)来精准获取相…

购物车装载状态检测系统源码分享

购物车装载状态检测检测系统源码分享 [一条龙教学YOLOV8标注好的数据集一键训练_70全套改进创新点发刊_Web前端展示] 1.研究背景与意义 项目参考AAAI Association for the Advancement of Artificial Intelligence 项目来源AACV Association for the Advancement of Comput…

瑞幸卖奶茶,霸王茶姬不慌

瑞幸和霸王茶姬,打不起来。 转载定焦(dingjiaoone)原创 作者 | 苏琦 编辑 | 魏佳 最近,瑞幸因为联名游戏大作《黑神话:悟空》无法核销套餐被骂上热搜,但业内人士更关注的,是它不久前推出的轻乳…

【网络安全】-rce漏洞-pikachu

rce漏洞包含命令执行漏洞与代码执行漏洞 文章目录 前言 什么是rce漏洞? 1.rce漏洞产生原因: 2.rce的分类: 命令执行漏洞: 命令拼接符: 常用函数: 代码执行漏洞: 常用函数: 分类&…

AI算力池化技术助力运营商打造智算生态

数字经济时代,算力已成为国民经济发展的重要基础设施。随着数字化转型的不断深入和人工智能技术的广泛应用,构建以新型智算中心为核心的智能算力生态体系正驱动着数字经济快速发展,成为人工智能赋能千行百业的重中之重。 2022年2月&#xff…

Vulnhub-RickdiculouslyEasy靶场(9个flag)

flag1 端口9090有一个flag flag2 13337端口 flag3 使用dirb进行扫描网站的80端口,发现一些敏感文件 访问80端口,没有发现有效信息 访问passwords目录 访问FLAG.txt 再返回访问passwords.html文件 查看页面源代码发现一个密码 flag4 之前扫描到了robo…

书接上文,介绍下Quartz Java体系结构

体系结构总结 JobDetail 我们创建一个实现 Job 接口的类,使用 JobBuilder 包装成 JobDetail,它可以携带 KV 的数据。 Trigger 定义任务的触发规律,Trigger,使用 TriggerBuilder 来构建。JobDetail 跟 Trigger 是 1:N 的关系。思…

智慧物流系统小程序的设计

管理员账户功能包括:系统首页,个人中心,车辆管理,商品管理,物流信息管理,论坛管理,公告信息管理 微信端账号功能包括:系统首页,商品,论坛,我的 …

磁盘无法访问:深度解析与高效数据恢复策略

在数字化时代,磁盘作为数据存储的核心载体,其稳定性和可访问性直接关系到用户数据的安全与完整性。然而,当遇到“磁盘无法访问”的突发状况时,用户往往会陷入焦虑与无助之中。本文将深入探讨磁盘无法访问的原因,并详细…

最全面IO流介绍

1.字符集介绍 标准ASCII字符集:使用1个字节存储一个字符,首尾是0,总可以表示128个字符。是美国信息交换标准代码,包含英文、符号等等。 GBK汉字编码字符集,包含2万多个汉字等字符,GBK中一个中文字符编码成…

(Java企业 / 公司项目)点赞业务系统设计-批量查询点赞状态(二)

接着上一篇文章来搞,批量查询点赞状态。这个接口提供给其他的微服务调用所以这里会用到FeignClient 直接上接口 1. 接口信息 这里是查询多个业务的点赞状态,因此请求参数自然是业务id的集合。由于是查询当前用戶的点赞状态,因此无需传递用戶信息。当前用户指的是登录用户 …

小琳AI课堂:LLaMA 3.1 开源大模型的全新里程碑

引言 大家好,这里是小琳AI课堂!今天我们要聊的是Meta最新发布的开源大模型LLaMA 3.1。这个版本在AI界掀起了不小的波澜,不仅在参数规模上有显著提升,还在多项性能上实现了突破。让我们一起来看看LLaMA 3.1带来的新变化和意义吧&a…

UEFI基础概念2——Handle和Protocol

一、Handle Handle Database是由Handle和Protocol组成。Handle(句柄)是一个或多个协议的集合,Protocol(协议)是由GUID命名的数据结构。 在平台初始化过程中,系统固件、UEFI兼容驱动程序和UEFI应用程序创建…

香港科技大学工学2025/2026年度硕士研究生(MSc)项目招生宣讲会

🔔香港科技大学工学院2025/2026年度硕士研究生(MSc)项目招生宣讲会 🕙时间:2024年9月25日(星期三)19:00 🏠地点:华南理工大学五山校区33号楼403室 🎆2024Ti…

重修设计模式-结构型-桥接模式

重修设计模式-结构型-桥接模式 将抽象和实现解耦,让它们可以独立变化 桥接模式(Bridge Pattern)的主要目的是解耦,创建一个抽象层来隔离接口与实现,让它们之间的依赖关系可以通过对象的组合来替代继承,从而…

运维学习————运维日志分析系统es——Elasticsearch

目录 一、简介 1、全文检索 1、数据分类 2、非结构化数据搜索方法 2、什么是 Elasticsearch 3、用途 4、基本概念 二、下载配置,搭建集群 集群规划 解压 配置环境变量 es配置 由于es启动不能直接使用root用户 启动 三、常用集群命令 一、简介 …

可提示 3D 分割研究里程碑!SAM2Point:SAM2加持泛化任意3D场景、任意提示!

郑重声明:本解读已获得论文作者的原创解读授权 文章链接:https://arxiv.org/pdf/2408.16768 在线demo: https://huggingface.co/spaces/ZiyuG/SAM2Point code链接:https://github.com/ZiyuGuo99/SAM2Point 亮点直击 无投影 3D 分割&#xff1…