1 分布式概述
分布式系统是计算机程序的集合,这些程序利用跨多个独立计算节点的计算资源来实现共同的目标。可以分为分布式计算、分布式存储、分布式数据库等。
2 系统模型
2.1 故障模型
- Byzantine failure:节点可以任意篡改发送给其他节点的数据
- ADB:Byzantine failure的特例,节点可以篡改数据,但不能伪造其它节点的数据
- Performance failure:节点未在特定时间段内收到数据,即时间太早或太晚
- Omission failure:节点收到数据的时间无限晚,即收不到数据
- Crash failure:Omission failure基础上增加了节点停止响应的假设,也即持续性地Omission failure
- Fail-stop failure:在Crash failure的基础上增加了错误可检测的假设
从图中我们可以看出,越在外层的错误模型(如Byzantine failure)所作的假设越少,越在内层的错误模型(如Crash failure)所作的假设越多。也即,一个在内层模型中可行的共识方案未必可以在外层模型中可行。
2.2 拜占庭将军问题
两支军队的将军只能派信使穿越敌方领土互相通信,以此约定进攻时间。该问题希望求解如何在两名将军派出的任何信使都可能被俘虏的情况下,就进攻时间达成共识。但理论上永远无法达成共识。
TCP三次握手是在两个方向确认包的序列号,增加了超时重试,是两将军问题的一个工程解。
拜占庭将军考虑更加普适的场景,例如3个将军ABC互相传递消息,消息可能丢失,也可能被篡改,当有一个将军是“叛徒”(即出现拜占庭故障)时,整个系统无法达成一致。如果没有“叛徒”,无论各自观察到怎样的敌情,总能达成一致的行动。
由于“叛徒”C的存在,将军A和将军B获得不同的信息。这样将军A获得2票进攻1票撤退的信息,将军B获得1票进攻2票撤退的信息,产生了不一致。
考虑当4个将军,只有1个叛徒的场景。将军D作为消息分发中枢,约定如果没收到消息则执行撤退。
- 如果D为“叛徒”,ABC无论收到任何消息,总能达成─致
- D为“忠将”,ABC有2人将D的消息进行正确的传递,同样能保证最终决策符合大多数。
进而能够证明,当有3m+1个将军,其中m个“叛徒”时,可以增加m轮协商,最终达成—致。
2.3 共识和一致性
2.3.1 最终一致性
客户端A读到x=0,当客户端C正在写入时,客户端A和B可能读到O或者1。但是当C写入完成后,A和B最终能读到一致的数据。我们称这样的一致性为最终一致性。
2.3.2 线性一致性
当客户端A读到更新的版本x=1后,及时将消息同步给其他客户端,这样其他客户端立即能获取到x=1。我们称这样的一致性为线性一致性。
如果要保证“线性”一致性,多个节点间势必需要进行协商,以寻求一致。这样增加了延迟,系统可用性便会受损。
2.4 时间和事件顺序
2.4.1 Happened Before
我们定义"happened before”关系,记为"→"。其满足如下三个条件:
- 如果a和b是在相同节点上的两个事件,a在b之前发生,则定义:a→b
- 如果事件a表示某个节点发送某条消息,b是另一个节点接受这条消息,则有a→b
- 如果有a→b 且b→c,则有a→c
当且仅当a!→b 且b!→a时,我们称两个事件为并发的(concurrent)。
p1→r4由p1→q2→q4→r3→r4得到。
2.4.2 Lamport逻辑时钟
对于每一个节点Pi我们定义时钟Ci为一个函数,它为任意的事件a赋值编号为Ci(a)
- 如果a和 b 是在相同节点Pi 上的两个事件,a在b之前发生,则有Ci(a)<Ci(b)
- 如果事件a表示节点Pi发送某条消息,b表示节点Pj接受这条消息,则有Ci(a)<Cj(b)
于是我们可以在时空图中加入类似下图虚线所示的“tick line"
在同一节点内的连续两个事件之间,至少要有一条tick line。利用逻辑时钟,我们可以对整个系统中的事件进行全序排序
3 理论基础
3.1 CAP理论
- C(Consistence):一致性。指数据在多个副本之间能够保持一致的特性
- A(Availability):可用性。指系统提供的服务必须一直处于可用的状态,每次请求都能获取到非错的响应——但是不能保证获取的数据为最新数据;
- P(Network Partitioning):分区容错性。分布式系统在遇到任何网络分区故障的时候,仍然能够对外提供满足一致性和可用性的服务,除非整个网络环境都发生了故障。
- CA:放弃分区容错性,加强一致性和可用性,其实就是传统的单机数据库的选择
- AP:放弃一致性,追求分区容错性和可用性,例如一些注重用户体验的系统
- CP:放弃可用性,例如与钱财安全相关的系统
在网络发生分区的情况下,我们必须在可用性和一致性之间做出选择。近似解决办法:把故障节点的负载转移给备用节点负责。下图演示了如何做故障转移:
3.2 ACID理论
数据库事务拥有四个特性ACID,即分别是原子性(Atomicity)、一致性(Consistency)、隔离性(lsolation)和持久性(Durability)。
- 原子性(A)。原子性是指事务包含的所有操作要么全部成功,要么全部失败回滚。
- 一致性(C)。一致性是指事务必须使数据库从一个一致性状态变换到另一个一致性状态,也就是说一个事务执行之前和执行之后都必须处于一致性状态
- 隔离性(I)。隔离性是当多个用户并发访问数据库时,数据库为每一个用户开启的事务,不能被其他事务的操作所干扰,多个并发事务之间要相互隔离
- 持久性(D)。持久性是指一个事务一旦被提交了,那么对数据库中的数据的改变就是永久性的,即便是在数据库系统遇到故障的情况下也不会丢失提交事务的操作。
3.3 BASE理论
Base理论是对CAP中一致性和可用性权衡的结果,其来源于对大型互联网分布式实践的总结,是基于CAP定理逐步演化而来的。其核心思想是:
- Basically Available(基本可用):假设系统,出现了不可预知的故障,但还是能用,相比较正常的系统而言:∶响应时间上的损失,或功能上的损失
- Soft state(软状态)∶允许系统中的数据存在中间状态,并认为该状态不影响系统的整体可用性,即允许系统在多个不同节点的数据副本存在数据延时。
- Eventually consistent(最终一致性)︰系统能够保证在没有其他新的更新操作的情况下,数据最终一定能够达到一致的状态,因此所有客户端对系统的数据访问最终都能够获取到最新的值。
4 分布式事务
4.1 二阶段提交
分为prepare阶段和commit阶段
三个假设:
- 引入协调者(Coordinator)和参与者(Participants),互相进行网络通信
- 所有节点都采用预写式日志,且日志被写入后即被保持在可靠的存储设备上
- 所有节点不会永久性损坏,即使损坏后仍然可以恢复
4.2 三阶段提交
将两阶段提交中的Prepare阶段,拆成两部分:CanCommit和PreCommit机制
解决了两个问题:
- 单点故障问题
- 阻塞问题
4.3 MVCC
MVCC是一种并发控制的方法,维持一个数据的多个版本使读写操作没有冲突。所以既不会阻塞写,也不阻塞读。MVCC为每个修改保存一个版本,和事务的时间戳相关联。可以提高并发性能,解决脏读的问题。
5 共识协议
5.1 Quorum NWR模型
Quorum NWR三要素:
- N:在分布式存储系统中,有多少份备份数据
- W:代表一次成功的更新操作要求至少有w份数据写入成功
- R:代表一次成功的读数据操作要求至少有R份数据成功读取
为了保证强一致性,需要保证W+R>N
5.2 Raft协议
- Leader -领导者,通常一个系统中是一主(Leader)多从(Follower) ,Leader负责处理所有的客户端请求,并向Follower同步请求日志,当日志同步到大多数节点上后,通知Follower提交日志。
- Follower -跟随者,不会发送任何请求。接受并持久化Leader同步的日志,在Leader告知日志可以提交后,提交日志。当Leader出现故障时,主动推荐自己为Candidate。
- Candidate -备选者,Leader选举过程中的临时角色。向其他节点发送请求投票信息。如果获得大多数选票,则晋升为Leader。
- Log (日志)︰节点之间同步的信息,以只追加写的方式进行同步,解决了数据被覆盖的问题
- Term(任期号):单调递增,每个Term内最多只有一个Leader
- Committed:日志被复制到多数派节占即可认为已经被提交
- Applied:日志被应用到本地状态机:执行了log中命令,修改了内存状态
5.2.1 Leather选举过程
- 初始全部为Follower
- Current Term + 1
- 选举自己
- 向其它参与者发起RequestVote请求,retry直到①收到多数派请求,成为Leader,并发送心跳;②收到其它Leader的请求,转为Follower,更新自己的Term;③收到部分,但未达到多数派,选举超时,随机timeout开始下一轮
两个规则:
- 在—个任期内每个参与者最多投一票(持久化)
- 要成为Leader,必须拿到多数投票
5.2.2 Log Replication过程
新Leader产生,Leader和Follower不同步,Leader强制覆盖Followers的不同步的日志
- Leader收到写请求w
- 将w写入本地log
- 向其它Follower发起AppendEntries RPC
- 等待多数派回复。更新本地状态机,返回给客户端;下一个心跳通知Follower上—个Log已经被Committed了;Follower也根据命令应用本地状态机
- Follower有问题,Leader—直retry
5.2.3 切主
当Leader出现问题时,就需要进行重新选举。
- Leader发现失去Follower的响应,失去Leader身份
- 两个Follower之间一段时间未收到心跳,重新进行选举,选出新的Leader,此时发生了切主
- Leader自杀重启,以Follower的身份加入进来
5.2.4 Stale Read
发生Leader切换,old leader收到了读请求。如果直接响应,可能会有Stale Read。
解决方法:保证读的强一致
读操作在lease timeout内,默认自己是leader;不是则发起一次heartbeat。等待Commit Index应用到状态机。
Election timeout > lease timeout:新leader 上任,自从上次心跳之后一定超过了Election
timeout,旧leader大概率能够发现自己的Lease过期
5.3 Paxos协议
Paxos算法与RAFT算法区别:
- Multi-Paxos可以并发修改日志,而Raft写日志操作必须是连续的
- Multi-Paxos可以随机选主,不必最新最全的节点当选Leader
Paxos优势:写入并发性能高,所有节点都能写入
Paxos劣势:没有一个节点有完整的最新的数据,恢复流程复杂,需要同步历史记录
- Proposers:获取Proposal ID N
- Proposers:向所有Acceptors广播
- Acceptors:如果n>min_proposal则min_proposal := n,返回accepted_value和Proposal
- Proposers:接受过半数回复,选择Proposal最大的accepted_value作为共识
- Proposers:第二阶段,广播Accept(n,value)到所有节点
- Acceptors:如果n>=min_proposal 则min_proposal :=n, accepted_value:=value,本地持久化,返回
- Proposers:接收过半请求,如果有结果>n,更新新的提议,跳转1
6 分布式实践
6.1 MapReduce
- Mapper:将输入分解为多个Job来并行处理。彼此间几乎没有依赖关系
- Shuffler:将maper结果打乱,防止数据倾斜
- Reducer:对map阶段的结果进行全局汇总
6.2 分布式KV
6.2.1 架构
将海量结构化数据根据Key分成不同的Region,每个Region构建一个单机KV数据库,Region之间形成Raft Groups,做到强一致
6.2.2 容错
当Node故障时,通过Raft Learner模式进行数据修复
6.2.3 弹性
当出现局部Key热点或数据膨胀时,Region可以进行Split操作,分成两个子Region,反之收缩时进行Merge操作