目录
一、集群的介绍
1.1 为什么需要集群呢?
1.2 什么是集群?
1.2 集群能干什么呢?
二、集群的算法之分片&槽位slot
2.1 什么是槽位slot?
2.2 分片
2.3 使用槽位和分片的优势
2.4 slot 槽位映射的三种算法
1、哈希取余分区(小厂)
2、一致性哈希(中厂)
3、哈希槽分区
为什么redis集群的最大槽数是16384个?
redis集群不保证强一致性
三、3主3从集群环境搭建
3.1 redis集群读写
3.2 主从容错切换迁移案例
3.3 主从扩容
3.4 主从缩容
一、集群的介绍
1.1 为什么需要集群呢?
在之前的哨兵当中,一旦Main挂掉了,就势必会导致一段时间内的数据写不进去了,当并发量很大的时候这势必是一个比较大的问题
集群就说为了解决这个问题而诞生的。
1.2 什么是集群?
-
由于数据量过大,单个Master复制集难以承担,因此需要对多个复制集进行集群,形成水平扩展每个复制集只负责存储整个数据集的一部分,这就是Redis的集群,其作用是提供在多个Redis节点间共享数据的程序集。
-
Redis集群是一个提供在多个Redis节点间共享数据的程序集
- Redis集群可以支持多个Master
1.2 集群能干什么呢?
- Redis集群支持多个Master,每个Master又可以挂载多个Slave
- 读写分离
- 支持海量数据的高可用
- 支持海量数据的读写存储操作
- 由于Cluster自带Sentinel的故障转移机制,内置了高可用的支持,无需再去使用哨兵功能
- 客户端和Redis的节点连接,不再需要连接集群中所有节点,只需连接集群中的任意一个可用节点即可(一个有所有都有了)
- 槽位slot负责分配到各个物理服务节点,由对应的集群来负责维护节点、插槽和数据之间的关系
二、集群的算法之分片&槽位slot
2.1 什么是槽位slot?
我们先来想这个问题:之前我们只有一个主机的时候,我么进行存储的时候,很自然的就是一对一的概念(因为只能在主机上进行set),现在引入了集群的概念(集群有多个主机),我们再想去set k1 v1 的时候,到底操作的是哪一个主机呢
这里肯定有一种方法让我们去通过一种算法进行映射:存的时候可以得到一个槽位,读的时候也能通过key找到相同的槽位
2.2 分片
分片是什么
|
使用Redis集群时我们会将存储的数据分散到多台redis机器上,这称为分片。简言之,集群中的每个Redis实例都被认为是整个数据的一个分片。
|
如何找到给定key的分片
|
为了找到给定key的分片,我们对key进行CRC16(key)算法处理并通过对总分片数量取模。然后,
使用确定性哈希函数,这意味着给定的key
将多次始终映射到同一个分片,我们可以推断将来读取特定key的位置。
|
2.3 使用槽位和分片的优势
2.4 slot 槽位映射的三种算法
1、哈希取余分区(小厂)
2亿条记录就是2亿个k,v,我们单机不行必须要分布式多机,假设有3台机器构成一个集群,用户每次读写操作都是根据公式:
hash(key) % N个机器台数,计算出哈希值,用来决定数据映射到哪一个节点上。
|
优点:
简单粗暴,直接有效,只需要预估好数据规划好节点,例如3台、8台、10台,就能保证一段时间的数据支撑。使用Hash算法让固定的一部分请求落到同一台服务器上,这样每台服务器固定处理一部分请求(并维护这些请求的信息),起到负载均衡+分而治之的作用。
|
缺点:
原来规划好的节点,进行
扩容或者缩容就比较麻烦了额,不管扩缩,每次数据变动导致节点有变动,映射关系需要重新进行计算,在服务器个数固定不变时没有问题,如果需要弹性扩容或故障停机的情况下,原来的取模公式就会发生变化:Hash(key)/3会变成Hash(key) /?。此时地址经过取余运算的结果将发生很大变化,根据公式获取的服务器也会变得不可控。
某个redis机器宕机了,由于台数数量变化,
会导致hash取余全部数据重新洗牌。
|
就类似于之前的哈希表开散列扩容,一扩容就会导致原来的映射关系改变,所有的数据都要重新洗牌,这就导致效率很低
2、一致性哈希(中厂)
一致性Hash算法背景
一致性哈希算法在1997年由麻省理工学院中提出的,设计目标是为了解决
分布式缓存数据变动和映射问题,某个机器宕机了,分母数量改变了,自然取余数不OK了。
当服务器个数发生变化的时候,尽量减少影响客户端到服务器的映射关系
1、算法构建一致性哈希环
一致性哈希算法必然有个hash函数并按照算法产生hash值,这个算法的所有可能哈希值会构成一个全量集,这个集合可以成为一个hash空间[0,2^32-1],这个是一个线性空间,但是在算法中,我们通过适当的逻辑控制将它首尾相连(0 = 2^32),这样让它逻辑上形成了一个环形空间。
2、redis服务器ip节点映射
将集群中各个IP节点映射到环上的某一个位置。
将各个服务器使用Hash进行一个哈希,具体可以选择服务器的IP或主机名作为关键字进行哈希,这样每台机器就能确定其在哈希环上的位置。假如4个节点NodeA、B、C、D,经过IP地址的哈希函数计算(hash(ip)),使用IP地址哈希后在环空间的位置如下:
3、key 落到服务器的落键规则
当我们需要存储一个kv键值对时,首先计算key的hash值,hash(key),将这个key使用相同的函数Hash计算出哈希值并确定此数据在环上的位置,从此位置沿环顺时针“行走”,第一台遇到的服务器就是其应该定位到的服务器,并将该键值对存储在该节点上。
一致性哈希的优缺点:
1、一致性哈希算法的容错性
假设Node C宕机,可以看到此时对象A、B、D不会受到影响。
2、扩展性
数据量增加了,需要增加一台节点NodeX,X的位置在A和B之间,那收到影响的也就是A到X之间的数据,重新把A到X的数据录入到X上即可,
不会导致hash取余全部数据重新洗牌。
缺点:
Hash环的数据倾斜问题
一致性Hash算法在服务节点太少时,容易因为节点分布不均匀而造成数据倾斜(被缓存的对象大部分集中缓存在某一台服务器上)问题,
例如系统中只有两台服务器
3、哈希槽分区
哈希槽的出现是为了解决一致性哈希算法的数据倾斜问题。
2 能干什么
解决均匀分配的问题,在数据和节点之间又加入了一层,把这层称为哈希槽(slot),用于管理数据和节点之间的关系,现在就相当于节点上放的是槽,槽里放的是数据。
槽解决的是粒度问题,相当于把粒度变大了,这样便于数据移动。哈希解决的是映射问题,使用key的哈希值来计算所在的槽,便于数据分配
哈希槽计算
Redis 集群中内置了 16384 个哈希槽,redis 会根据节点数量大致均等的将哈希槽映射到不同的节点。当需要在 Redis 集群中放置一个 key-value时,redis先对key使用crc16算法算出一个结果然后用结果对16384求余数[ CRC16(key) % 16384],这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,也就是映射到某个节点上。如下代码,key之A 、B在Node2, key之C落在Node3上
为什么redis集群的最大槽数是16384个?
Redis集群并没有使用一致性hash而是引入了哈希槽的概念。Redis 集群有16384个哈希槽,每个key通过CRC16校验后对16384取模来决定放置哪个槽,集群的每个节点负责一部分hash槽。但为什么哈希槽的数量是16384(2^14)个呢?
CRC16算法产生的hash值有16bit,该算法可以产生2^16=65536个值。
换句话说值是分布在0~65535之间,有更大的65536不用为什么只用16384就够?
作者在做mod运算的时候,为什么不mod65536,而选择mod16384? HASH_SLOT = CRC16(key) mod 65536为什么没启用
|
(1)如果槽位为65536,发送心跳信息的消息头达8k,发送的心跳包过于庞大。
在消息头中最占空间的是myslots[CLUSTER_SLOTS/8]。 当槽位为65536时,这块的大小是: 65536÷8÷1024=8kb
在消息头中最占空间的是myslots[CLUSTER_SLOTS/8]。 当槽位为16384时,这块的大小是: 16384÷8÷1024=2kb
因为每秒钟,redis节点需要发送一定数量的ping消息作为心跳包,如果槽位为65536,这个ping消息的消息头太大了,浪费带宽。
(2)redis的集群主节点数量基本不可能超过1000个。
集群节点越多,心跳包的消息体内携带的数据越多。如果节点过1000个,也会导致网络拥堵。因此redis作者不建议redis cluster节点数量超过1000个。 那么,对于节点数在1000以内的redis cluster集群,16384个槽位够用了。没有必要拓展到65536个。
(3)槽位越小,节点少的情况下,压缩比高,容易传输
Redis主节点的配置信息中它所负责的哈希槽是通过一张bitmap的形式来保存的,在传输过程中会对bitmap进行压缩,但是如果bitmap的填充率slots / N很高的话(N表示节点数),bitmap的压缩率就很低。 如果节点数很少,而哈希槽数量很多的话,bitmap的压缩率就很低。
redis集群不保证强一致性
redis集群不保证强一致性,这意味着在特定条件下,redis集群可能会丢掉一些被系统收到的写入请求或命令
三、3主3从集群环境搭建
3.1 redis集群读写
新增两个key,看看效果是怎么样的
我们发现我们在增加key的时候,有时候会报错,有时候就是成功的
为什么会报错呢?
一定注意槽位的范围区间,需要路由到位,路由到位,路由到位,路由到位
如何解决呢?
加入参数-c,优化路由
3.2 主从容错切换迁移案例
在我这里我的6381是slave,他的master是6384(在 cluster nodes 中 看他们的id)
- 把6384停了,6381会成为master(从机上位)
启动6384,6381还是master,并不会让位
-
Redis集群不保证强一致性,意味着在特定的条件下,Redis集群可能会丢掉一些被系统收到的写入请求命令
- 因为本质还是发送心跳包,需要一些时间判断是否down机,如果down机,对应的slave直接成为master
3.3 主从扩容
新建6387、6388 两个服务实例配置文件+启动 (又加了个虚拟机 或者 直接在三个虚拟机里选一个)
-
6387端口
bind 0.0.0.0
daemonize yes
protected-mode no
port 6387
logfile "/myredis/cluster/cluster6387.log"
pidfile /myredis/cluster6387.pid
dir /myredis/cluster
dbfilename dump6387.rdb
appendonly yes
appendfilename "appendonly6387.aof"
requirepass 123456
masterauth 123456
cluster-enabled yes
cluster-config-file nodes-6387.conf
cluster-node-timeout 5000
-
6388 端口
bind 0.0.0.0
daemonize yes
protected-mode no
port 6388
logfile "/myredis/cluster/cluster6388.log"
pidfile /myredis/cluster6388.pid
dir /myredis/cluster
dbfilename dump6388.rdb
appendonly yes
appendfilename "appendonly6388.aof"
requirepass 123456
masterauth 123456
cluster-enabled yes
cluster-config-file nodes-6388.conf
cluster-node-timeout 5000
启动,此时这两个实例都是master
redis-server /myredis/cluster/redisCluster6388.conf
redis-server /myredis/cluster/redisCluster6387.conf
将新增的6387节点作为master加入原集群
-
redis-cli -a 123456 --cluster add-node 192.168.230.114:6387 192.168.238.111:6381
检查集群情况,第一次
redis-cli -a 密码 --cluster check 真实ip地址:6381
|
redis-cli -a 111111 --cluster check 192.168.111.175:6381
|
分配槽号
重新分派槽号
命令:redis-cli -a 密码 --cluster
reshard IP地址:端口号
redis-cli -a 密码 --cluster reshard 192.168.111.175:6381
|
执行完之后会进行重新洗牌。
检查集群情况,第二次
redis-cli --cluster check 真实ip地址:6381
|
redis-cli -a 111111 --cluster check 192.168.111.175:6381
|
重新分配成本太高,所以前3家各自匀出来一部分,
从6381/6383/6385三个旧节点分别匀出1364个坑位,注意本机这里经过调整所以我是需要从6381中分出4096即可
3.4 主从缩容
让6388和6387下线
-
先获得6388的节点id(上图可获取),在集群中将6388删除
将从节点6388删除
将6387的槽号情况,重新分配,先全部都给6381
删除完再第二次检查集群的情况
redis-cli -a 111111 --cluster check 192.168.111.175:6381