🌟个人博客:www.hellocode.top🌟
🌟Java知识导航:Java-Navigate🌟
⭐想获得更好的阅读体验请前往Java-Navigate
🔥本文专栏:《流行框架》
🌞如没有JavaWEB基础,请先前往《Java Web从入门到实战》专栏学习相应知识
⚡如有问题,欢迎指正,一起学习~~
文章目录
- 删除策略
- 过期数据
- 数据删除策略
- 数据淘汰策略
- 主从复制
- 简介
- 工作流程
- 常见问题
- 哨兵模式
- 简介
- 部署
- 工作原理
- 集群
- 简介
- 数据结构
- 部署
- 节点操作
- 企业级解决方案
- 缓存预热
- 缓存雪崩
- 缓存击穿
- 缓存穿透
- 性能指标监控
删除策略
过期数据
Redis是一种内存级数据库,所有数据均存放在内存中,内存中的数据可以通过TTL指令获取其状态
- XX:具有时效性的数据
- -1:永久有效的数据
- -2:已经过期的数据 或 被删除的数据 或 未定义的数据
过期的数据真的删除了吗?
不会被立即删除,会根据对应的数据删除策略进行过期数据的删除
假如同时有大量数据过期,如果立即删除,将会占用CPU性能,影响用户的set和get操作,所以一般来说过期数据并不会立即删除
时效性数据的存储结构
在对redis中数据设置过期时间后,会在expires域中存储对应数据的内存地址和过期时间(以hash结构进行存储)
也就是说,进行过期设置后,和数据本身并没有直接关联
数据删除策略
- 定时删除
- 惰性删除
- 定期删除
数据删除策略的目标
在内存占用与CPU占用之间寻找一种平衡,顾此失彼都会造成整体redis性能的下降,甚至引发服务器宕机或内存泄漏
定时删除
- 创建一个定时器,当key设置有过期时间,且过期时间到达时,由定时器任务立即执行对键的删除操作
- 优点:节约内存,到时就删除,快速释放掉不必要的内存占用
- 缺点:CPU压力很大,无论CPU此时负载量多高,均会占用CPU,会影响redis服务器响应时间和指令吞吐量
- 总结:用处理器性能换取存储空间(时间换空间)
惰性删除
- 数据到达过期时间,不做处理,等下次访问数据(get操作)时删除
- 如果未过期,返回数据
- 发现已过期,删除,返回不存在
- 优点:节约CPU性能,发现必须删除的时候才删除
- 缺点:内存压力很大,出现长期占用内存的数据
- 总结:用存储空间换取处理器性能(空间换时间)
定期删除(折中方案)
-
Redis启动服务器初始化时,读取配置server.hz的值,默认为10
-
每秒钟执行server.hz次以下方法
serverCron()----->databasesCron----->activeExpireCycle() -
activeExpireCycle()
对每个expires[*]逐一进行检测,每次执行250ms/server.hz(CPU性能的1/4) -
对某个expires[*]检测时,随机挑选W个key进行检测
- 如果key超时,删除key
- 如果一轮中删除的
key的数量>W*25%
,循环该过程 - 如果一轮中删除的
key数量<=W*25%
,检查下一个expires[*],0-15循环 - W取值=ACTIVE_EXPIRE_CYCLE_LOOKUPS_PER_LOOP属性值
-
参数current_db用于记录
activeExpireCycle()
进入哪个expires[*]执行 -
如果
activeExpireCycle()
执行时间到期,下次从currrent_db继续向下执行
- 定期删除:周期性轮询redis库中的时效性数据,采用随机抽取的策略,利用过期数据占比的方式控制删除频度
- 特点
- CPU性能占用设置有峰值,检测频度可自定义设置
- 内存压力不是很大,长期占用内存的冷数据会持续清理
- 总结:周期性抽查存储空间(随机抽查,重点抽查)
数据淘汰策略
当新数据进入redis时,如果内存不足怎么办?
- Redis使用内存存储数据,在执行每一个命令前,会调用
freeMemoryIfNeeded()
检测内存是否充足。如果内存不满足新加入数据的最低存储要求,redis要临时删除一些数据为当前指令清理存储空间。清理数据的策略称为数据淘汰策略或逐出算法。 - 注意:逐出数据的过程不是100%能够清理出足够的可使用的内存空间,如果不成功则反复执行。当对所有数据尝试完毕,如不能达到内存清理的要求,将出现错误信息
(error) OOM command not allowed when used memory > 'maxmemory'
影响数据淘汰的相关配置
- 最大可使用内存,即占用物理内存的比例,默认值为0,表示不限制。生产环境中根据需求设定,通常设置在50%以上
maxmemory ?mb
- 每次选取待删除数据的个数,采用随机获取数据的方式作为待检测删除数据
maxmemory-samples count
- 对数据进行删除的选择策略
maxmemory-policy poicy
选择策略
- 检测易失数据(可能会过期的数据集server.db[i].expires )
① volatile-lru:挑选最近最少使用的数据淘汰
② volatile-lfu:挑选最近使用次数最少的数据淘汰
③ volatile-ttl:挑选将要过期的数据淘汰(并未过期)
④ volatile-random:任意选择数据淘汰
- 检测全库数据(所有数据集server.db[i].dict )
⑤ allkeys-lru:挑选最近最少使用的数据淘汰
⑥ allkeys-lfu:挑选最近使用次数最少的数据淘汰
⑦ allkeys-random:任意选择数据淘汰 - 放弃数据驱逐
⑧ no-enviction(驱逐):禁止驱逐数据(redis4.0中默认策略),会引发错误OOM(Out Of Memory)
maxmemory-policy volatile-lru
数据逐出策略配置依据
连接redis客户端后,使用info命令输出监控信息,查询缓存 hit 和 miss 的次数,根据业务需求调优Redis配置
主从复制
简介
互联网“三高”架构
- 高并发
- 高性能
- 高可用
业界可用性目标5个9,即99.999%(一年中可用时长占全年时长的百分比),即服务器宕机时长低于315秒,约5.25分钟
单机redis的风险与问题
问题1:机器故障
- 现象:硬盘故障,系统崩溃
- 本质:数据丢失,很可能对业务造成灾难性打击
- 结论:基本上会放弃使用redis
问题2:容量瓶颈
- 现象:内存不足,从16G升级到64G,从64G升级到128G,无限升级内存
- 本质:穷,硬件条件跟不上
- 结论:放弃使用redis
结论
为了避免单点redis服务器故障,准备多台服务器,互相连通。将数据复制多个副本保存在不同的服务器上,连接在一起,并保证数据是同步的。即使有其中一台服务器宕机,其他服务器依然可以继续提供服务,实现redis的高可用,同时实现数据冗余备份
多台服务器连接方案
-
提供数据方:master
主服务器,主节点,主库,主客户端
-
接收数据方:slave
从服务器,从节点,从库,从客户端
-
需要解决的问题
数据同步(master的数据复制到slave中)
主从复制
- 概念:主从复制即将master中的数据即时、有效的复制到slave中
- 特征:一个master可以拥有多个slave,一个slave只对应一个master
- 职责
- master
- 写数据
- 执行写操作时,将出现变化的数据自动同步到slave
- 读数据(可忽略)
- slave
- 读数据
- 写数据(禁止)
- master
作用
- 读写分离:master写,slave读,提高服务器的读写负载能力
- 负载均衡:基于主从结构,配合读写分离,由slave分担master负载,并根据需求的变化,改变slave的数量,通过多个从节点分担数据读取负载,大大提高redis服务器的并发量与数据吞吐量
- 故障恢复:当master出现问题时,由slave提供服务,实现快速的故障恢复
- 数据冗余:实现数据热备份,是持久化之外的一种数据冗余方式
- 高可用基石:基于主从复制,构建哨兵模式与集群,实现redis的高可用方案
工作流程
主从复制过程大体可以分为3个阶段
- 建立连接阶段(准备阶段)
- 数据同步阶段
- 命令传播阶段
阶段一:建立连接阶段
- 建立slave到master的连接,使master能够识别slave,并保存slave端口号
- 步骤1:设置master的地址和端口,保存master信息
- 步骤2:建立socket连接
- 步骤3:发送ping命令(定时器任务)
- 步骤4:身份验证
- 步骤5:发送slave端口信息
至此,主从连接成功
- 当前状态
- slave:保存master的地址和端口
- master:保存slave端口
- 总体:二者创建了连接的socket
主从连接(slave连接master)
- 方式一:客户端发送命令
slaveof masterip masterport
- 方式二:启动服务器参数
redis-server --slaveof masterip masterport
- 方式三:服务器配置
slaveof masterip masterport
- slave系统信息(info命令查看)
- master_link_down_since_seconds
- masterhost & masterport
- master系统信息(info命令查看)
- slave_listening_port(多个)
断开主从连接
- 断开slave与master的连接,slave断开连接后,不会删除已有数据,只是不再接受master发送的数据
slaveof no one
授权访问
- master客户端发送命令设置密码
requirepass password
- master配置文件设置密码
config set requirepass password
config get requirepass
- slave客户端发送命令设置密码
auth password
- slave配置文件设置密码
masterauth password
- slave启动服务器设置密码
redis-server -a password
阶段二:数据同步阶段工作流程
- 在slave初次连接master后,复制master中的所有数据到slave
- 将slave的数据库状态更新成master当前的数据库状态
-
步骤1:请求同步数据
-
步骤2:创建RDB同步数据
-
步骤3:恢复RDB同步数据
-
步骤4:请求部分同步数据
-
步骤5:恢复部分同步数据
至此,数据同步工作完成
-
当前状态
- slave:具有master端全部数据,包含RDB过程接收的数据
- master:保存slave当前数据同步的位置
- 总体:master、slave之间完成了数据克隆
slave刚连接master,master会将已有数据复制给slave,称为全量复制;在全量复制过程中,master中可能又会存入新的数据,将进入复制缓冲区,当全量复制完成,再将复制缓冲区的数据同步到slave,称为增量复制(部分复制)
数据同步阶段master说明
- 如果master数据量巨大,数据同步阶段应避开流量高峰期,避免造成master阻塞,影响业务正常执行
- 复制缓冲区大小设定不合理,会导致数据溢出。如进行全量复制周期太长(缓冲区已存满,继续存入将会造成数据丢失),进行部分复制时发现数据已经存在丢失情况,必须进行第二次全量复制,致使slave陷入死循环状态
- 可使用下面的指令对复制缓冲区大小进行设置
repl-backlog-size ?mb
- master单机内存占用主机内存的比例不应该过大,建议使用50%70%的内存,留下30%50%的内存用于执行bgsave命令和创建复制缓冲区
数据同步阶段slave说明
- 为避免slave进行全量复制、部分复制时服务器响应阻塞或数据不同步,建议关闭此期间的对外服务
slave-serve-stale-data yes|no
- 数据同步阶段,master发送给slave信息可以理解为master是slave的一个客户端,主动向slave发送命令
- 多个slave同时对master请求数据同步,master发送的RDB文件增多,会对宽带造成巨大冲击,如果master宽带不足,因此数据同步需要根据业务需求,适量错峰
- slave过多时,建议调整拓扑结构,由一主多从结构变为树状结构,中间的节点既是master,也是slave。注意使用树状结构时,由于层级深度,导致深度越高的slave与最顶层master间数据同步延迟较大,数据一致性变差,应谨慎选择
阶段三:命令传播阶段
- 当master数据库状态被修改后,导致主从服务器数据库状态不一致,此时需要让主从数据同步到一致的状态,同步的动作称为命令传播
- master将接收到的数据变更命令发送给slave,slave接收命令后执行命令
命令传播阶段的部分复制
-
命令传播阶段出现了断网现象
- 网络闪断闪连----------忽略
- 短时间网络中断-------部分复制
- 长时间网络中断-------全量复制
-
部分复制的三个核心要素
- 服务器的运行id(run id)
- 主服务器的复制积压缓冲区
- 主从服务器的复制偏移量
服务器运行ID(runid)
- 概念:服务器运行id是每一台服务器每次运行的身份识别码,一台服务器多次运行可以生成多个运行id
- 组成:运行id由40位字符组成,是一个随机的十六进制字符
例如:fdc9ff13b9bbaab28db42b3d50f852bb5e3fcdce - 作用:运行id被用于在服务器间进行传输,识别身份
如果想两次操作均对同一台服务器进行,必须每次操作携带对应的运行id,用于对方识别 - 实现方式:运行id在每台服务器启动时自动生成的,master在首次连接slave时,会将自己的运行id发送给slave,slave保存此id,通过info Server命令,可以查看节点的runid
复制(积压)缓冲区
- 概念:复制缓冲区,又名复制积压缓冲区,是一个先进先出(FIFO)的队列,用于存储服务器执行过的命令,每次传播命令,master都会将传播的命令记录下来,并存储在复制缓冲区
- 复制缓冲区默认数据存储空间大小是1M
- 当入队元素的数量大于队列长度时,最先入队的元素会被弹出,而新元素会被放入队列
- 作用:用于保存master收到的所有指令(仅影响数据的指令,例如set,select)
- 数据来源:当master接收到主客户端的指令时,除了将指令执行,会将该指令存储到缓冲区中
内部工作原理
- 组成
- 偏移量
- 字节值
- 工作原理
- 通过offset区分不同的slave当前数据传播的差异
- master记录已发送的信息对应的offset
- slave记录已接收的信息对应的offset
主从服务器复制偏移量(offset)
- 概念:一个数字,描述复制缓冲区中的指令字节位置
- 分类
- master复制偏移量:记录发送给所有slave的指令字节对应的位置(多个)
- slave复制偏移量:记录slave接收master发送过来的指令字节对应的位置(一个)
- 作用:同步信息,比对master与slave的差异,当slave断线后,恢复数据使用
- 数据来源
- master端:发送一次记录一次
- slave端:接收一次记录一次
数据同步+命令传播阶段工作流程
心跳机制
- 进入命令传播阶段后,master与slave间需要进行信息交换,使用心跳机制进行维护,实现双方连接保持在线
- master心跳
- 内部指令:PING
- 周期:由repl-ping-slave-period决定,默认10秒
- 作用:判断slave是否在线
- 查询:INFO replication 获取slave最后一次连接时间间隔,lag项维持在0或1视为正常
- slave心跳任务
- 内部指令:REPLCONF ACK{offset}
- 周期:1秒
- 作用1:汇报slvae自己的复制偏移量,获取最新的数据变更指令
- 作用2:判断master是否在线
心跳阶段注意事项
- 当slave多数掉线,或延迟过高时,master为保障数据稳定性,将拒绝所有信息同步操作
min-slave-to-write 2
min-slave-max-lag 8
slave数量少于2个,或者所有slave的延迟都大于等于8秒时,强制关闭master写功能,停止数据同步 - slave数量由slave发送REPLCONF ACK命令做确认
- slave延迟由slave发送REPLCONF ACK命令做确认
常见问题
频繁的全量复制(1)
伴随着系统的运行,master的数据量会越来越大,一旦master重启,runid将发生变化,会导致全部slave的全量复制操作
内部优化调整方案
-
master内部创建master_replid变量,使用runid相同的策略生成,长度41位,并发送给所有slave
-
在master关闭时执行命令
shutdown save
,进行RDB持久化,将runid与offset保存到RDB文件中repl-id
repl-offset
- 通过
redis-check-rdb
命令可以查看该信息
-
master重启后加载RDB文件,恢复数据
重启后,将RDB文件中保存的repl-id与repl-offset加载到内存中
master_repl_id = repl
master_repl_offset = repl-offset
- 通过info命令可以查看该信息
作用:本机保存上次runid,重启后恢复该值,使所有slave认为还是之前的master
频繁的全量复制(2)
- 问题现象:网络环境不佳,出现网络中断,slave不提供服务
- 问题原因:复制缓冲区过小,断网后slave的offset越界,触发全量复制
- 最终结果:slave反复进行全量复制
- 解决方案:修改复制缓冲区大小
repl-backlog-size ?mb
- 建议设置如下
- 测算从master到slave的重连平均时长second
- 获取master平均每秒产生写命令数据总理write_size_per_second
- 最优复制缓冲区空间 = 2 * second * write_size_per_second
频繁的网络中断(1)
- 问题现象:master的CPU占用过高 或 slave频繁断开连接
- 问题原因
- slave每1秒发送REPLCONF ACK命令到master
- 当slave接到了慢查询时(keys * ,hgetall等),会大量占用CPU性能
- master每1秒调用复制定时函数replicationCron(),比对slave发现长时间没有进行响应
- 最终结果:master各种资源(输出缓冲区、宽带、连接等)被严重占用
- 解决方案:通过设置合理的超时时间,确认是否释放slave
repl-timeout seconds
该参数定义了超时时间的阈值(默认60秒),超过该值,释放slave
频繁的网络中断(2)
- 问题现象:slave与master连接断开
- 问题原因
- master发送ping指令频度较低
- master设定超时时间较短
- ping指令在网络中存在丢包
- 解决方案:提高ping指令发送的频度
repl-ping-slave-period seconds
超时时间repl-time的时间至少是ping指令频度的5到10倍,否则slave很容易判定超时
数据不一致
- 问题现象:多个slave获取相同数据不同步
- 问题原因:网络信息不同步,数据发送有延迟
- 解决方案
- 优化主从间的网络环境,通常放置在同一个机房部署,如使用阿里云等云服务器时要注意此现象
- 监控主从节点延迟(通过offset)判断,如果slave延迟过大,暂时屏蔽程序对该slave的数据访问
slave-serve-stale-data yes|no
开启后仅响应info、slaveof等少数命令(慎用,除非对数据一致性要求很高)
哨兵模式
简介
哨兵(sentinel)是一个分布式系统,用于对主从结构中的每台服务器进行监控,当出现故障时通过投票机制选择新的master并将所有slave连接到新的master
作用
- 监控
- 不断地检查master和slave是否正常运行
- master存活检测、master与slave运行情况检测
- 通知(提醒):当被监控的服务器出现问题时,向其他(哨兵间,客户端)发送通知
- 自动故障转移:断开master与slave连接,选取一个slave作为master,将其他slave连接新的master,并告知客户端新的服务器地址
注意:哨兵也是一台redis服务器,只是不提供数据相关服务,通常哨兵的数量配置为单数
部署
- 配置一拖二的主从结构(模拟)
- 配置三个哨兵(配置相同,端口不同),参看sentinel.conf(模拟)
- 启动哨兵
redis-sentinel filename.conf
配置哨兵
- 设置哨兵监听的主服务器信息,sentinel_number表示参与投票的哨兵数量(一般设置为哨兵数量的一半+1)
sentinel monitor master_name master_host master_port sentinel_number
- 设置判定服务器宕机时长,该设置控制是否进行主从切换
sentinel down-after-milliseconds master_name million_seconds
- 设置故障切换的最大超时时长
sentinel failover-timeout master_name million_seconds
- 设置主从切换后,同时进行数据同步的slave数量,数值越大,要求网络资源越高,数值越小,同步时间越长
sentinel parallel-syncs master_name sync_slave_number
port 26379
dir /data/26379 ####哨兵sentinel的工作目录
sentinel monitor mymaster 127.0.0.1 6379 2 #### 这行的意思是当有2个哨兵服务器认为master失联,那么这时客观上就认为主节点失联了。这里的按照所有的(哨兵节点/2)+1的个数来判断
sentinel down-after-milliseconds mymaster 30000 #### 指定多少毫秒之后,主节点没有应答哨兵sentinel 此时,哨兵主观上认为主节点下线,默认是30秒
sentinel parallel-syncs mymaster 1 #### 这个配置是指定了在发生failover主备切换时最多可以有多少个slave同时对新的master进行同步,如果这个数字越小,完成failover时间就越长,
#如果这个数字越大,对物理机的CPU、内存资源消耗的就越大。
sentinel failover-timeout mymaster 180000
###故障转移的超时时间(1:同一个sentinel对同一个master两次failover之间的间隔时间。
#2:当一个slave从一个错误的master那里同步数据开始计算时间。直到slave被纠正为向正确master那里同步数据时。
#3:当先要取消一个正在进行的failover所需要的时间,
#4:当进行failover时,配置所有slave指向新的master所需要的最大时间。不过,即使过了这个超时,slaves依然被正确配置为执向master,但是就不按parallel-syncs所配置的规则)
#以上配置就可以正常的启动哨兵
工作原理
- 哨兵在进行主从切换过程中经历三个阶段
- 监控阶段
- 同步信息
- 通知阶段
- 保持联通
- 故障转移阶段
- 发现问题,标记主观下线与客观下线
- 竞选负责人
- 优选新master
- 新master上任,其他slave切换master,原master作为slave故障恢复后连接
- 监控阶段
阶段一:监控阶段
- 用于同步各个节点的状态信息
- 获取各个sentinel的状态(是否在线)
- 获取master的状态
- master的属性
- runid
- role:master
- 各个slave的详细信息
- master的属性
- 获取所有slave的状态(根据master中的slave信息)
- slave属性
- runid
- role:slave
- master_host、master_port
- offset
- …
- slave属性
阶段二:通知阶段
哨兵内部互通消息,同步消息(所监控服务对应的状态)
阶段三:故障转移阶段
- 当某个sentinel检测到某服务故障之后,会把对应的故障服务标记为
SRI_S_DOWN
,并在对应的哨兵网中通知其他sentinel(主观下线) - 其他sentinel接收到通知后,将会共同向对应服务发出消息(故障ip、端口、runid等等),检查是否故障,如果确定故障,会将其标记为
SRI_O_DOWN
状态(客观下线)
- 在多个sentinel中,首先会在内部进行选举(谁先申请就选举谁),选出票多的作为本次处置中的领导
- 有可能存在一轮选举并没有选举出的情况(票数持平),将会重复重新进行选举
处置阶段
-
服务器列表中挑选备选master(排除)
- 不在线的
- 响应慢的
- 与原master断开时间久的
- 优先原则
- 优先级
- offset
- runid
-
处置完成,发送指令(sentinel)
- 向新的master发送slaveof no one
- 向其他slave发送slaveof 新masterIP端口
集群
业务发展过程中遇到的峰值瓶颈
- redis提供的服务OPS可以达到10万/秒,但是如果当前业务已经超过10万/秒
- 内存单机容量达到256G,但是当前业务需求内存容量1T
- 使用集群的方式可以快速解决上述问题
简介
- 集群就是使用网络将若干台计算机联通起来,并提供统一的管理方式,使其对外呈现单机的服务效果
作用
- 分散单台服务器的访问压力,实现负载均衡
- 分散单台服务器的存储压力,实现可扩展性
- 降低单台服务器宕机带来的业务灾难
数据结构
Redis是使用Cluster进行集群结构设计
单机
集群
- Redis提供一个CRC16函数将key转换成一个值(类似于hash值),再通过%16384得到一个数(对Redis进行16384的等分,每一份代表一个存储空间,每台计算机保存若干台空间),假设为37,这个37用来确定该数据在集群中存在的位置
- 如果一台计算机宕机,或者新加入一台计算机之后该怎么办?
- 假设,目前有三个台机器,现在又加了一台机器
- 将会在已有体系结构中的空间各自拿出来一部分(槽,可以理解为一个存储空间就是一个槽,一共16384个槽),放入新机器的存储空间
- 通过这种方式,增强了集群的可扩展性
集群内部通讯设计
- 各个数据库相互通信,保存各个库中槽的编号数据
- 假设现在来发过来一条指令key,如果在当前主机中存储,则直接命中,未在当前主机存储,则告知具体的存储位置,保障最多两次即可命中数据
- 一次命中,直接返回
- 一次未命中,告知具体位置
部署
- 配置服务器(3主3从)
- 建立通信(Meet)
- 分槽(Slot)
- 搭建主从(master-slave)
Cluster配置
- 是否启用cluster,加入cluster节点
cluster-enabled yes|no
- cluster配置文件名,该文件属于自动生成,仅用于快速查找文件并查询文件内容
cluster-config-file filename
- 节点服务响应超时时间,用于判定该节点是否下线或切换为从节点
cluster-node-timeout milliseconds
- master连接的slave最小数量
cluster-migration-barrier min_slave_number
Cluster节点操作命令(了解即可)
- 查看集群节点信息
cluster nodes
- 更改slave指向新的master
cluster replicate master-id
- 发现一个新节点,新增master
cluster meet ip:port
- 忽略一个没有solt的节点
cluster forget server_id
- 手动故障转移
cluster failover
redis-cli命令
-
创建集群
redis-cli --cluster create masterhost1:masterport1 masterhost2:masterport2 masterhost3:masterport3 [masterhostn:masterportn ...] slavehost1:slaveport1 slavehost2:slaveport2 slavehost3:slaveport3 --cluster-replicas n
- master与slave的数量要匹配,一个master对应n个slave,由最后的参数n决定
- master与slave的匹配顺序为第一个master与前n个master分为一组,形成主从结构
配置文件
port 6501
dir "/redis/data"
dbfilename "dump-6501.rdb"
cluster-enabled yes
cluster-config-file "cluster-6501.conf"
cluster-node-timeout 5000
搭建集群后,存入key时会计算出该key应该存入哪个服务器,所以在连接客户端时应该
redis-cli -c -h ip -p port
,加上-c
,表示以集群模式启动,将会在集群服务器客户端间实现自动切换,完成数据存储
节点操作
redis-cli命令
- 添加master到当前集群中,连接时可以指定任意现有节点地址与端口
redis-cli --cluster add-node new-master-host:new-master-port now-host:now-port
- 添加slave
redis-cli --cluster add-node new-slave-host:new-slave-port master-host:master-port --cluster-slave --cluster-master-id masterid
- 删除节点,如果删除的节点是master,必须保障其中没有槽slot
redis-cli --cluster del-node del-slave-host:del-slave-port del-slave-id
添加master时,
now-host:now-port
随便输入一个已经添加到集群中的服务即可但是新添加master后,并没有为其分槽,需要进行重新分槽操作
- 重新分槽,分槽是从具有槽的master中划分一部分给其他master,过程中不创建新的槽
redis-cli --cluster reshard new-master-host:new-master-port --cluster-from src-master-id1,src-master-id2,src-master-idn --cluster-to target-master-id --cluster-slots slots
- 将需要参与分槽的所有masterid不分先后顺序添加到参数中,使用
,
分隔 - 指定目标得到的槽的数量,所有的槽将平均从每个来源的master处获取
- 将需要参与分槽的所有masterid不分先后顺序添加到参数中,使用
- 重新分配槽,从具有槽的master中分配指定数量的槽到另一个master中,常用于清空指定master中的槽
redis-cli --cluster reshard src-master-host:src-master-port --cluster-from src-master-id --cluster-to target-master-id --cluster-slots slots --cluster-yes
企业级解决方案
缓存预热
缓存预热就是系统启动前,提前将相关的缓存数据直接加载到缓存系统。避免在用户请求的时候,先查询数据库,然后再将数据库缓存的问题!用户直接查询事先被预热的缓存数据
宕机
服务器启动后迅速宕机
问题排查
- 请求数量较高
- 主从之间数据吞吐量较大,数据同步操作频度较高
解决方案
前期准备工作
- 日常例行统计数据访问记录,统计访问频度较高的热点数据
- 利用LRU数据删除策略,构建数据留存队列
例如:storm与kafka配合
准备工作
- 将统计结果中的数据分类,根据级别,redis优先加载级别较高的热点数据
- 利用分布式多服务器同时进行数据读取,提速数据加载过程
- 热点数据主从同时预热
实施
- 使用脚本程序固定触发数据预热过程
- 如果条件允许,使用了CDN(内容分发网络),效果会更好
缓存雪崩
缓存雪崩就是瞬间过期数据量太大,导致对数据库服务器造成压力。如能够有效避免过期时间集中,可以有效解决雪崩现象的出现(约40%),配合其他策略一起使用,并监控服务器的运行数据,根据运行记录做快速调整
数据库服务器崩溃(1)
- 系统平稳运行过程中,忽然数据库连接量激增
- 应用服务器无法及时处理请求
- 大量408,500错误页面出现
- 客户反复刷新页面获取数据
- 数据库崩溃
- 应用服务器崩溃
- 重启应用服务器无效
- Redis服务器崩溃
- Redis集群崩溃
- 重启数据库后再次被瞬间流量放倒
问题排查
- 在一个较短的时间内,缓存中较多的key集中过期
- 此周期内请求访问过期的数据,redis未命中,redis向数据库获取数据
- 数据库同时接收到大量的请求无法及时处理
- Redis大量请求被积压,开始出现超时现象
- 数据库流量激增,数据库崩溃
- 重启后仍然面对缓存中无数据可用
- Redis服务器资源被严重占用,Redis服务器崩溃
- Redis集群呈现崩塌,集群瓦解
- 应用服务器无法及时得到数据响应请求,来自客户端的请求数量越来越多,应用服务器崩溃
- 应用服务器,redis,数据库全部重启,效果不理想
问题分析
- 短时间范围内
- 大量key集中过期
解决方案(道)
- 更多的页面静态化处理
- 构建多级缓存架构
Nginx缓存+redis缓存+ehcache缓存 - 检测Mysql严重耗时业务进行优化
对数据库的瓶颈排查:例如超时查询、耗时较高事务等 - 灾难预警机制
监控redis服务器性能指标- CPU占用、CPU使用率
- 内存容量
- 查询平均响应时间
- 线程数
- 限流、降级
短时间范围内牺牲一些客户体验,限制一部分请求访问,降低应用服务器压力,待业务低俗运转后再逐步放开访问
解决方案(术)
- LRU与LFU切换
- 数据有效期策略调整
- 根据业务数据有效期进行分类错峰,A类90分钟,B类80分钟,C类70分钟
- 过期时间使用固定时间+随机值的形式,稀释集中到期的key的数量
- 超热数据使用永久key
- 定期维护(自动+人工)
对即将过期数据做访问量分析,确认是否延时,配合访问量统计,做热点数据的延时 - 加锁
慎用!
缓存击穿
缓存击穿就是单个高热数据过期的瞬间,数据访问量较大,未命中redis后,发起了大量对统一数据的数据库访问,导致对数据库服务器造成压力。应对策略应该在业务数据分析与预防方面进行,配合运行监控测试与即时调整策略,毕竟单个key的过期监控难度较高,配合雪崩处理策略即可
数据库服务器崩溃(2)
- 系统平稳运行过程中
- 数据库连接量瞬间激增
- Redis服务器无大量key过期
- Redis内存平稳,无波动
- Redis服务器CPU正常
- 数据库崩溃
问题排查
- Redis中某个key过期,该key访问量巨大
- 多个数据请求从服务器直接压到Redis后,均为命中
- Redis在短时间内发起了大量对数据库中同一数据的访问
问题分析
- 单个key高热数据
- key过期
解决方案(术)
- 预先设定
以电商为例,每个商家根据店铺等级,指定若干款主打商品,在购物节期间,加大此类信息key的过期时长
注意:购物节不仅仅指当天,以及后续若干天,访问峰值呈现逐渐降低的趋势 - 现场调整
监控访问量,对自然流量激增的数据延长过期时间获设置为永久性key - 后台刷新数据
启动定时任务,高峰期来临之前,刷新数据有效期,确保不丢失 - 二级缓存
设置不同的失效时间,保障不会被同时淘汰就行 - 加锁
分布式锁,防止被击穿,但是要注意也是性能瓶颈,慎重!
缓存穿透
缓存穿透访问了不存在的数据,跳过了合法数据的redis数据缓存阶段,每次访问数据库,导致对数据库服务器造成压力。通常此类数据的出现量是一个较低的值,当出现此类情况以毒攻毒,并及时报警。应对策略应该在临时预案防范方面多做文章
无论黑名单还是白名单,都是对整体系统的压力,警报解除后尽快移除
数据库服务器崩溃(3)
- 系统平稳运行过程中
- 应用服务器流量随时间增量较大
- Redis服务器命中率随时间逐步降低
- Redis内存平稳,内存无压力
- Redis服务器CPU占用激增
- 数据库服务器压力激增
- 数据库崩溃
问题排查
- Redis中大面积出现未命中
- 出现非正常URL访问(访问的key根本不存在)
问题分析
- 获取的数据在数据库中也不存在,数据库查询未得到对应数据
- Redis获取到null数据未进行持久化,直接返回
- 下次此类数据到达重复上述过程
- 出现黑客攻击服务器
解决方案(术)
- 缓存null
对查询结构为null的数据进行缓存(长期使用,定期清理),设定短时限,例如30~60秒,最高5分钟 - 白名单策略
- 提前预热各种分类数据id对应的bitmaps,id作为bitmaps的offset,相当于设置了数据白名单。当加载正常数据时放行,加载异常数据时直接拦截(效率偏低)
- 使用布隆过滤器(有关布隆过滤器的命中问题对当前状况可以忽略)
- 实施监控
实时监控redis命中率(业务正常范围时,通常会有一个波动值)与null数据的占比- 非活动时段波动:通常检测3-5倍,超出5倍纳入重点排查对象
- 活动时段波动:通常检测10-50倍,超过50倍纳入重点排查对象
根据倍数不同,启动不同的排查流程。然后使用黑名单进行防控(运营)
- key加密
问题出现后,临时启动防灾业务key,对key进行业务层传输加密服务,设定校验程序,过来的key校验
例如每天随机分配60个加密串,挑选2到3个,混淆到页面数据id中,发现访问key不满足规则,驳回数据访问
性能指标监控
监控指标
- 性能指标:Performance
- 内存指标:Memory
- 基本活动指标:Basic_activity
- 持久性指标:Persistence
- 错误指标:Error
监控指标——性能指标(Performance)
- 响应请求的平均时间
latency
- 平均每秒处理请求总数量
instantaneous_ops_per_sec
- 缓存查询命中率(通过查询总次数与查询得到非nil数据总次数计算而来)
hit_rate(calculated)
监控指标——内存指标(Memory)
- 当前内存使用量
used_memory
- 内存碎片率(关系到是否进行碎片整理)
mem_fragmentation_ratio
- 为避免内存溢出删除的key的总数量
evicted_keys
- 基于阻塞操作(BLPOP等)影响的客户端数量
blocked_clients
监控指标——基础活动指标(Basic_activity)
- 当前客户端连接总数
connected_clients
- 当前连接slave总数
connected_slaves
- 最后一次主从信息交换距现在的秒数
master_last_io_seconds_ago
- key的总数
keyspace
监控指标——持久化指标(Persistence)
- 当前服务器最后一次RDB持久化的时间
rdb_last_save_time
- 当前服务器最后一次RDB持久化后数据变化总量
rdb_changes_since_last_save
监控指标——错误指标(Error)
- 被拒绝连接的客户端总数(基于达到最大连接值的因素)
rejected_connections
- key未命中的总次数
keyspace_misses
- 主从断开的秒数
master_link_down_since_seconds
监控方式
- 工具
- Cloud Insight Redis
- Prometheus
- Redis-stat
- Redis-faina
- RedisLive
- zabbix
- 命令
- benchmark
- redis-cli
- monitor
- slowlog
benchmark
- 测试当前服务器的并发性能
redis-benchmark [-h] [-p] [-c] [-n <requests]> [-k]
- 范例1:50个连接,10000次请求对应的性能
redis-benchmark
- 范例2:100个连接,5000次请求对应的性能
redis-benchmark -c 100 -n 5000
monitor
- 启动服务器调试信息
monitor
slowlog
- 获取慢查询日志
slowlog [operator]
- get:获取慢查询日志信息
- len:获取慢查询日志条目数
- reset:重置慢查询日志
- 相关配置
slowlog-log-slower-than 1000 # 设置慢查询的时间下限,单位:微秒
slowlog-max-len 100 # 设置慢查询命令对应的日志显示长度,单位:命令数