目录
- 一、集群与分布式
- 1.1 集群的含义
- 1.2 LVS模型
- 1.3 系统性能扩展方式
- 1.4 群集的三种类型
- 1.4.1 负载均衡群集
- 1.4.2 高可用群集
- 1.4.3 高性能运算群集
- 1.5 LVS 的负载调度算法
- ①`轮询`(Round Robin)
- ②`加权轮询`(Weighted Round Robin)
- ③`最少连接`(Least Connections)
- ④`加权最少连接`(Weighted Least Connections)
- ⑤IP_Hash
- ⑥url_hash
- ⑦fair
- 1.6 分布式系统
- 1.7 集群和分布式
- 1.8 集群设计原则
- 1.9 集群设计实现
- 1.9.1 基础设施层面
- 1.9.2 业务层面
- 1.10 负载均衡群集架构
- 1.11 LB Cluster 负载均衡集群
- 1.11.1 按实现方式划分
- 1.11.2 基于工作的协议层次划分
- 1.11.3 负载均衡的会话保持
- 1.12 HA 高可用集群实现
- 二. linux Virtual Server 简介
- 2.1 LVS 介绍
- 2.2 LVS 工作原理
- 2.3 LVS 功能及组织架构
- 2.3.1 应用于高访问量的业务
- 2.3.2 扩展应用程序
- 2.3.3 消除单点故障
- 2.3.4 同城容灾 (多可用区容灾)
- 2.4 LVS 集群类型中的术语
- 三、 LVS 工作模式和相关命令
- 3.1 LVS 集群的工作模式
- 3.1.1 LVS 的NAT模式
- 3.1.2 IP隧道
- 3.1.3 直接路由
- 3.1.4 LVS工作模式总结和比较
- 四、 ipvsadm 工具
- 4.1 ipvsadm 工具选项说明
- 五、NAT模式 LVS负载均衡部署
- 5.1 配置NFS共享服务器
- 5.2 节点 Web 服务器
- 第一台(192.168.137.103)
- 第二台(192.168.137.102)
- 负载调度器
- 内网:192.168.137.101(ens32) 外网:12.0.0.30 (ens34)
一、集群与分布式
1.1 集群的含义
- Cluster,集群、群集,为解决某个特定问题将多台计算机组合起来形成的单个系统
- 由多台主机构成,但对外只表现为一个整体
1.2 LVS模型
1.3 系统性能扩展方式
-
Scale UP:垂直扩展,向上扩展,增强,性能更强的计算机运行同样的服务
-
Scale Out:水平扩展,向外扩展,增加设备,并行地运行多个服务调度分配问题,Cluster
垂直扩展不再提及:
随着计算机性能的增长,其价格会成倍增长
单台计算机的性能是有上限的,不可能无限制地垂直扩展,多核CPU意味着即使是单台计算机也可以并行的。那么,为什么不一开始就并行化技术?
1.4 群集的三种类型
-
负载均衡群集
-
高可用群集
-
高性能运算群集。
1.4.1 负载均衡群集
LB: Load Balancing,负载均衡,多个主机组成,每个主机只承担一部分访问请求
-
提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
-
LB的负载分配依赖于主节点的分流算法
1.4.2 高可用群集
HA: High Availiablity,高可用,避免 SPOF(single Point Of failure)
-
提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
-
HA的工作方式包括双工和主从两种模式
1.4.3 高性能运算群集
HPC: High-performance computing,高性能
-
提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
-
高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力
1.5 LVS 的负载调度算法
①轮询
(Round Robin)
-
将收到的访问请求按照顺序轮流分配给群集中的各节点 (真实服务器)
-
均等地对待每台服务器,而不管服务器实际的连接数和系统负载。
②加权轮询
(Weighted Round Robin)
-
根据调度器设置的权重值来分发请求
-
权重值高的节点优先获得任务并且分配的请求越多
-
这样可以保证性能高的节点承担更 多请求。
③最少连接
(Least Connections)
-
根据真实服务器已建立的连接数进行分配
-
将收到的访问请求优先分配给连接数最少的节点
-
如果所有的服务器节点性能相近,采用这种方式可以更好的均衡负载
④加权最少连接
(Weighted Least Connections)
-
在服务器节点的性能差异较大的 情况下,调度器可以根据节点服务器负载自动调整权重
-
权重较高的节点将承担更 大比例的活动连接负载。
⑤IP_Hash
-
根据请求来源的IP地址进行Hash计算,得到后端服务器
-
这样来自同一个IP的请求总是会落到同一台服务器上处理,以致于可以将请求上下文信息存储在这个服务器上
⑥url_hash
-
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器
-
后端服务器为缓存时比较有效
⑦fair
-
采用的不是内建负载均衡使用的轮换的均衡算法
-
而是可以根据页面大小、加载时间长短智能的进行负载均衡
-
也就是根据后端服务器时间来分配用户请求,响应时间短的优先分配
1.6 分布式系统
分布式存储: 将数据分散存储在多台独立的设备上 。Ceph,GlusterFS,FastDFS,MogileFS
分布式计算: 将该应用分解成许多小的部分,分配给多台计算机进行处理。 hadoop,Spark
分布式常见应用
分布式应用-服务按照功能拆分,使用微服务(单一应用程序划分成一组小的服务,服务之间互相协调、互相配合,为用户提供最终价值服务)
分布式静态资源--静态资源放在不同的存储集群上
分布式数据和存储--使用key-value缓存系统
分布式计算--对特殊业务使用分布式计算,比如Hadoop集群
1.7 集群和分布式
分布式是以缩短单个任务的执行时间来提升效率的,而集群则是通过提高单位时间内执行的任务数来提升效率。
- 集群:同一个业务系统,部署在多台服务器上。集群中,每一台服务器实现的功能没有差别,数据和代码都是一样的。
- 分布式:一个业务被拆成多个子业务,或者本身就是不同的业务,部署在多台服务器上。分布式中,每一台服务器实现的功能是有差别的,数据和代码也是不一样的,分布式每台服务器功能加起来,才是完整的业务。
PS: 对于大型网站,访问用户很多,实现一个群集,在前面部署一个负载均衡服务器,后面几台服务器完成 同一业务。如果有用户进行相应业务访问时,负载均衡器根据后端哪台服务器的负载情况,决定由给哪 一台去完成响应,并且一台服务器垮了,其它的服务器可以顶上来。分布式的每一个节点,都完成不同 的业务,如果一个节点垮了,那这个业务可能就会失败
1.8 集群设计原则
-
可扩展性—集群的横向扩展能力
-
可用性—无故障时间 (SLA service level agreement)
-
性能—访问响应时间
-
容量—单位时间内的最大并发吞吐量(C10K 并发问题)
1.9 集群设计实现
1.9.1 基础设施层面
-
提升硬件资源性能—从入口防火墙到后端 web server 均使用更高性能的硬件资源
-
多域名—DNS 轮询A记录解析
-
多入口—将A记录解析到多个公网IP入口
-
多机房—同城+异地容灾
-
CDN(Content Delivery Network)—基于GSLB(Global Server Load Balance)实现全局负载均衡,如:DNS
1.9.2 业务层面
-
分层:安全层、负载层、静态层、动态层、(缓存层、存储层)持久化与非持久化
-
分割:基于功能分割大业务为小服务
-
分布式:对于特殊场景的业务,使用分布式计算
1.10 负载均衡群集架构
-
第一层,负载调度器(Load Balancer或Director)
-
第二层,服务器池(Server Pool)
-
第三层,共享存储(Share Storage)
1.11 LB Cluster 负载均衡集群
1.11.1 按实现方式划分
- 硬件
F5 Big-IP(F5服务器负载均衡模块)
Citrix Netscaler
A10 A10
- 软件
lvs:Linux Virtual Server,阿里四层 SLB (Server Load Balance)使用
nginx:支持七层调度,阿里七层SLB使用 Tengine
haproxy:支持七层调度
ats:Apache Traffic Server,yahoo捐助给apache
perlbal:Perl 编写
pound
1.11.2 基于工作的协议层次划分
- 传输层(通用):DNAT 和 DPORT
LVS:
nginx:stream
haproxy:mode tcp
- 应用层(专用):针对特定协议,常称为 proxy server
http:nginx, httpd, haproxy(mode http), …
fastcgi:nginx, httpd, …
mysql:mysql-proxy, mycat…
1.11.3 负载均衡的会话保持
- session sticky:同一用户调度固定服务器
Source IP:LVS sh算法(对某一特定服务而言)
Cookie
- session replication:每台服务器拥有全部session(复制)
session multicast cluster
- session server:专门的session服务器(server)
Memcached,Redis
1.12 HA 高可用集群实现
keepalived:vrrp协议
Ais:应用接口规范
heartbeat
cman+rgmanager(RHCS)
coresync_pacemaker
二. linux Virtual Server 简介
2.1 LVS 介绍
LVS:Linux Virtual Server,负载调度器,内核集成,章文嵩(花名正明), 阿里的四层SLB(Server
Load Balance)是基于LVS+keepalived实现
LVS 官网:http://www.linuxvirtualserver.org/
阿里SLB和LVS:
https://yq.aliyun.com/articles/1803
https://github.com/alibaba/LVS
整个SLB系统由3部分构成:四层负载均衡,七层负载均衡和控制系统
-
四层负载均衡 ,采用开源软件LVS (linux virtual server),并根据云计算需求对其进行了定制化;该技术已经在阿里巴巴内部业务全面上线应用2年;
-
七层负载均衡,采用开源软件Tengine;该技术已经在阿里巴巴内部业务全面上线应用3年多;·控制系统,用于配置和监控负载均衡系统;
2.2 LVS 工作原理
VS根据请求报文的目标IP和目标协议及端口将其调度转发至某RS,根据调度算法来挑选RS。LVS是内核级功能,工作在INPUT链的位置,将发往INPUT的流量进行“处理”
2.3 LVS 功能及组织架构
负载均衡的应用场景为高访问量的业务,提高应用程序的可用性和可靠性。
2.3.1 应用于高访问量的业务
如果您的应用访问量很高,可以通过配置监听规则将流量分发到不同的云服务器 ECS(ElasticCompute Service 弹性计算服务)实例上。此外,可以使用会话保持功能将同一客户端的请求转发到同一台后端ECS
2.3.2 扩展应用程序
可以根据业务发展的需要,随时添加和移除ECS实例来扩展应用系统的服务能力,适用于各种Web服务器和App服务器
2.3.3 消除单点故障
可以在负载均衡实例下添加多台ECS实例。当其中一部分ECS实例发生故障后,负载均衡会自动屏蔽故障的ECS实例,将请求分发给正常运行的ECS实例,保证应用系统仍能正常工作
2.3.4 同城容灾 (多可用区容灾)
-
为了提供更加稳定可靠的负载均衡服务,阿里云负载均衡已在各地域部署了多可用区以实现同地域容灾。当主可用区出现机房故障或不可用时,负载均衡仍然有能力在非常短的时间内(如:大约30s中
断)切换到另外一个备可用区恢复服务能力;当主可用区恢复时,负载均衡同样会自动切换到主可用区提供服务。 -
使用负载均衡时,您可以将负载均衡实例部署在支持多可用区的地域以实现同城容灾。此外,建议您结合自身的应用需要,综合考虑后端服务器的部署。如果您的每个可用区均至少添加了一台ECS实例,那么此种部署模式下的负载均衡服务的效率是最高的。
2.4 LVS 集群类型中的术语
-
VS:
Virtual Server,Director Server(DS), Dispatcher(调度器),Load Balancer(lvs服务器) -
RS:
Real Server(lvs), upstream server(nginx), backend server(haproxy)(真实服务器) -
CIP:
Client IP(客户机IP) -
VIP:
Virtual serve IP VS外网的IP -
DIP:
Director IP VS内网的IP -
RIP:
Real server IP (真实IP
三、 LVS 工作模式和相关命令
3.1 LVS 集群的工作模式
-
负载均衡群集是目前企业用得最多的群集类型
-
群集的负载调度技术有三种工作模式
-
lvs-nat:修改请求报文的目标IP,多目标IP的DNAT
-
lvs-dr:操纵封装新的MAC地址(直接路由)
-
lvs-tun:隧道模式
-
3.1.1 LVS 的NAT模式
lvs-nat:本质是多目标IP的DNAT,通 过将请求报文中的目标地址和目标端口修改为某处的RS的RIP和PORT实现转发
(1)RIP和DIP应在同一个IP网络,且应使用私网地址;RS的网关要指向DIP
(2)请求报文和响应报文都必须经由Director转发,Director易于成为系统瓶颈
(3)支持端口映射,可修改请求报文的目标PORT
(4)VS必须是Linux系统,RS可以是任意OS系统
3.1.2 IP隧道
RIP和DIP可以不处于同一物理网络中,RS的网关一般不能指向DIP,且RIP可以和公网通信。也就是
说集群节点可以跨互联网实现。DIP, VIP, RIP可以是公网地址。
RealServer的通道接口上需要配置VIP地址,以便接收DIP转发过来的数据包,以及作为响应的
报文源IP。
DIP转发给RealServer时需要借助隧道,隧道外层的IP头部的源IP是DIP,目标IP是RIP,而
RealServer响应给客户端的IP头部是根据隧道内层的IP头分析得到的,源IP是VIP,目标IP是CIP
请求报文要经由Director,但响应不经由Director,响应由RealServer自己完成
不支持端口映射
RS的OS须支持隧道功能
一般来说,隧道模式常会用来负载调度缓存服务器组,这些缓存服务器一般放置在不同的网络环境,可以就近
折返给客户端。在请求对象不在Cache服务器本地命中的情况下,Cache服务器要向源服务器发送请求,将结
果取回,最后将结果返回给用户。
3.1.3 直接路由
-
直接路由(Direct Routing):简称 DR 模式,采用半开放式的网络结构,与 TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络。
-
负载调度器与各节点服务器通过本地网络连接,不需要建立专用的 IP 隧道
直接路由,LVS默认模式,应用最广泛,通过请求报文重新封装一个MAC首部进行转发,
源MAC是DIP所在的接口的MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址;
- 源IP/PORT,以及目标IP/PORT均保持不变
3.1.4 LVS工作模式总结和比较
NAT | TUN | DR | |
---|---|---|---|
优点 | 端口转换 | WAN | 性能最好 |
缺点 | 性能瓶颈 | 服务器支持隧道模式 | 不支持跨网段 |
真实服务器要求 | any | Tunneling | Non-arp device |
支持网络 | private(私网) | LAN/WAN(私网/公网) | LAN(私网) |
真实服务器数量 | low (10~20) | High (100) | High (100) |
真实服务器网关 | lvs内网地址 | Own router(网工定义) | Own router(网工定义) |
四、 ipvsadm 工具
4.1 ipvsadm 工具选项说明
选项 | 解释 |
---|---|
-A | 添加虚拟服务器 |
-D | 删除整个虚拟服务器 |
-s | 指定负载调度算法(轮询:rr、加权轮询:wrr、最少连接:lc、加权最少连接: wlc) |
-a | 表示添加真实服务器(节点服务器) |
-d | 删除某一个节点 |
-t | 指定VIP地址及TCP端口 |
-r | 指定RIP地址及TCP端口 |
-m | 表示使用NAT群集模式 |
-g | 表示使用DR模式 |
-i | 表示使用TUN模式 |
-w | 设置权重(权重为0时表示暂停节点) |
-p 60 | 表示保持长连接60秒 |
-l | 列表查看LVS虚拟服务器〔默认为查看所有) |
-n | 以数字形式显示地址、端口等信息,常与"-"选项组合使用。ipvsadm -ln |
五、NAT模式 LVS负载均衡部署
配置环境
负载调度器:配置双网卡 内网:192.168.137.101(ens32) 外网卡:12.0.0.30(ens35)
二台WEB服务器集群池:192.168.137.102、192.168.137.103
一台NFS共享服务器:192.168.137.104
客户端:
5.1 配置NFS共享服务器
# 1. 关闭防火墙
systemctl disable --now firewalld
setenforce 0
# 安装nfs服务
yum -y install rpcbind nfs-utils.x86_64
3. #新建目录,并创建站点文件
[root@localhost opt]# cd /opt
[root@localhost opt]# mkdir kfc mdl
[root@localhost opt]# echo "this is kfc web" > kfc/index.html
[root@localhost opt]# echo "this is mdl web" > mdl/index.html
4. 开启服务
[root@localhost opt]# systemctl start rpcbind
[root@localhost opt]# systemctl start nfs
5. 授权
chmod 777 kfc mdl
6. # 设置共享策略
vim /etc/exports
/opt/kfc 192.168.137.0/24(ro)
/opt/mdl 192.168.137.0/24(ro)
7 发布服务
showmount -e
关闭防火墙
安装nfs服务
新建目录,并设置站点文件
授权
设置共享策略
发布服务
5.2 节点 Web 服务器
第一台(192.168.137.103)
1 #关闭防火墙
systemctl disable --now firewalld.service
setenforce 0
2.下载nginx服务
yum -y install nginx
3.查看nfs服务目录
showmount -e 192.168.137.104
4. 挂载站点
mount 192.168.137.104:/opt/mdl /usr/share/nginx/html/
5. 开启nginx服务
systemctl restart nginx
6. 指定网关
vim /etc/sysconfig/network-scripts/ifcfg-ens32
IPADDR=192.168.137.103
NETMASK=255.255.255.0
GATEWAY=192.168.137.101
7. 重启网卡
systemctl restart network
挂载站点
配置网关
第二台(192.168.137.102)
操作同第一台web节点服务器
负载调度器
内网:192.168.137.101(ens32) 外网:12.0.0.30 (ens34)
配置SNAT转发规则
加载LVS内核模块
安装 ipvsadm管理工具
启动服务前需要保存负载分配策略
客户端