目录
- 一、群集的概述
- 1、群集的含义
- 2、出现高并发的解决方法
- 3、群集的三种分类
- 3.1负载均衡群集
- 3.2高可用群集
- 3.3高性能运算群集
- 4、负载均衡的结构
- 三、LVS调度器用的调度方法
- 四、LVS的工作模式及其工作过程
- 1.NAT模式(VS-NAT)
- 2.直接路由模式(VS-DR)
- 3.IP隧道模式(VS-TUN)
- 五、LVS虚拟服务器
- 六、ipvsadm工具
- 七、LVS-NAT部署实操
- 1.部署nginx服务器
- 2.部署NF共享服务
- 3.部署LVS调度器
- 4.配置负载分配策略
一、群集的概述
1、群集的含义
Cluster,集群、群集,为解决某个特定的问题将多台计算机组合起来形成的单个系统
由多台主机构成的一个整体,提供一个访问入口(IP或域名),集群中的多台主机都干一件事提供一样的服务
2、出现高并发的解决方法
目前互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求。通常有以下两个解决方法:
纵向扩展:扩展CPU、内存、使用价格昂贵的小型机、大型机
横向扩展:使用多台相对廉价的普通服务器构建服务群集
但是纵向扩展总有上限,插槽的数量有限,所以我们更多的采用横向扩展,通过整合多台服务器,使用LVS来达到服务器的高可用和负载均衡,并以同一个IP地址(通常成为浮动IP,简称VIP)对外提供相同的服务。
3、群集的三种分类
- 负载均衡群集(LB) 提高系统响应能力,处理更多的访问请求,减少延迟,获得高并发、高负载的性能
- 高可用群集(HA) 提高系统的可靠性,尽可能的减少中断时间,确保业务的连续性
- 高性能运算群集(HPC) 通过整合多台主机的硬件资源,使用分布式/并行运算方法来获取高性能计算能力,云计算就是它的具体实现
3.1负载均衡群集
LB:Load Balancing,负载均衡,多个主机组成,每个主机只承担一部分访问请求
提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
LB的负载分配依赖于主节点的分流算法
3.2高可用群集
HA:High Availability Cluster
提高应用系统的可靠性,尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
HA的工作方式包括双工和主从两种模式
3.3高性能运算群集
HPC:High Performance Computer Cluster
提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标。获得相当于大型、超级计算机的高性能运算(HPC)能力
高性能依赖于“分布式运算”、“并行计算”,通过专用硬件个软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力
4、负载均衡的结构
第一层,负载调度器(Load Balancer或Director)——代理Nginx
访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集IP地址,通常会配置主、备两台调度器实现热备份,当主调度器失效后能够平滑替换至备用调度器,确保高可用性。
第二层,服务器池(Server Pool)
后端的真实服务器,upstream tocmat_server{ip:port} + location进行匹配跳转到upstream地址池中,也是服务器池所映射的后端节点tomcat群集所提供的应用服务,由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除后在重新纳入服务器池。
第三层,共享存储(Share Storage)
为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器。
三、LVS调度器用的调度方法
LVS调度器用的调度方法基本分为两类:
固定调度算法:rr,wrr,dh,sh
- rr:轮询算法,将请求依次分配给不同的RS(真实服务器)节点,即RS节点中均摊分配。适合于RS所有节点处理性能接近的情况。
- wrr:加权轮训调度,依据不同RS的权值分配任务。权值较高的RS将优先获得任务,并且分配到的连接数将比权值低的RS更多。相同权值的RS得到相同数目的连接数。
- dh:目的地址哈希调度(destination hashing)以目的地址为关键字查找一个静态hash表来获得所需RS。
- sh:源地址哈希调度(source hashing)以源地址为关键字查找一个静态hash表来获得需要的RS。
动态调度算法:wlc,lc,lblc
- wlc:加权最小连接数调度,假设各台RS的权值依次为Wi,当前tcp连接数依次为Ti,依次去Ti/Wi为最小的RS作为下一个分配的RS。
- lc:最小连接数调度(least-connection),IPVS表存储了所有活动的连接。LB会比较将连接请求发送到当前连接最少的RS。
- lblc:基于地址的最小连接数调度(locality-based least-connection):将来自同一个目的地址的请求分配给同一台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑。
四、LVS的工作模式及其工作过程
LVS 有三种负载均衡的模式,分别是VS/NAT(nat 模式)、VS/DR(路由模式)、VS/TUN(隧道模式)。
1.NAT模式(VS-NAT)
原理:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后负载均衡器就把客户端发送的请求数据包的目标IP地址及端口改成后端真实服务器的IP地址(RIP)。真实服务器响应完请求后,查看默认路由,把响应后的数据包发送给负载均衡器,负载均衡器在接收到响应包后,把包的源地址改成虚拟地址(VIP)然后发送回给客户端。
优点:集群中的服务器可以使用任何支持TCP/IP的操作系统,只要负载均衡器有一个合法的IP地址。
缺点:扩展性有限,当服务器节点增长过多时,由于所有的请求和应答都需要经过负载均衡器,因此负载均衡器将成为整个系统的瓶颈。
2.直接路由模式(VS-DR)
原理:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后负载均衡器就把客户端发送的请求数据包的目标MAC地址改成后端真实服务器的MAC地址(R-MAC)。真实服务器响应完请求后,查看默认路由,把响应后的数据包直接发送给客户端,不需要经过负载均衡器。
优点:负载均衡器只负责将请求包分发给后端节点服务器,而RS将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,也能处理很巨大的请求量。
缺点:需要负载均衡器与真实服务器RS都有一块网卡连接到同一物理网段上,必须在同一个局域网环境。
3.IP隧道模式(VS-TUN)
原理:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后负载均衡器就把客户端发送的请求报文封装一层IP隧道(T-IP)转发到真实服务器(RS)。真实服务器响应完请求后,查看默认路由,把响应后的数据包直接发送给客户端,不需要经过负载均衡器。
优点:负载均衡器只负责将请求包分发给后端节点服务器,而RS将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,也能处理很巨大的请求量。
缺点:隧道模式的RS节点需要合法IP,这种方式需要所有的服务器支持“IP Tunneling”。
五、LVS虚拟服务器
Linux Virtual Server(LVS)是针对Linux内核开发的负载均衡解决方案,由我国博士章文嵩在1998年创建,LVS实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求分发的负载均衡提出的一种高效的解决方法,做的是四层代理转发。
LVS现在已成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。在CentOS7系统中,以下操作可以手动加载ip_vs模块,并查看当前系统中ip_vs模块的版本信息。
[root@localhost ~]# modprobe ip_vs
#手动加载
[root@localhost ~]# cat /proc/net/ip_vs
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
#确认内核对LVS的支持
[root@localhost ~]# cd /usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs/
[root@localhost ipvs]# ls
ip_vs_dh.ko.xz ip_vs.ko.xz ip_vs_lblcr.ko.xz ip_vs_nq.ko.xz ip_vs_rr.ko.xz ip_vs_sh.ko.xz ip_vs_wrr.ko.xz
ip_vs_ftp.ko.xz ip_vs_lblc.ko.xz ip_vs_lc.ko.xz ip_vs_pe_sip.ko.xz ip_vs_sed.ko.xz ip_vs_wlc.ko.xz
[root@localhost ipvs]# ls |grep -o "^[^.]*"
ip_vs_dh
ip_vs_ftp
ip_vs
ip_vs_lblc
ip_vs_lblcr
ip_vs_lc
ip_vs_nq
ip_vs_pe_sip
ip_vs_rr
ip_vs_sed
ip_vs_sh
ip_vs_wlc
ip_vs_wrr[root@localhost ipvs]# for i in $(ls |grep -o "^[^.]*")
> do
> echo $i
> modprobe $i
#使用for循环,一次性加载
六、ipvsadm工具
创建虚拟服务器
添加、删除服务器节点
查看群集及节点情况
保存负载分配策略
ipvasdm工具选项
-A:添加虚拟服务器
-D:删除整个虚拟fuwq
-s:指定负载调度算法(轮询,加权轮询,最少连接,加权最少连接,wlc)
-a:表示添加真实服务器(节点服务器)
-d:删除某一个节点
-t:指定VIP地址及TCP端口
-r:指定RIP地址及TCP端口
-m:表示使用NAT群集模式
-g:表示使用DR模式
-i:表示使用TUN模式
-w:设置权重(权重为0时表示暂停节点)
-p60:表示保持长连接60秒
-l:列表查看LVS虚拟服务器(默认为查看所有)
-n:以数字形式显示地址,端口等信息,常与“-l”选项组合使用
七、LVS-NAT部署实操
准备四台虚拟机
192.168.154.10做LVS调度器 内网关:192.168.154.10 外网关ens36:12.0.0.10
192.168.154.11做nginx1
192.168.154.12做nginx2
192.168.154.13做nfs共享存储
1.部署nginx服务器
#192.168.154.11 做nginx
cd /etc/yum.repo.d/
将nginx的包拉进去
yum -y install nginx
#192.168.154.11
scp nginx.repo 192.168.154.12:`pwd`
#192.168.154.12 做nginx
cd /etc/yum.repo.d/
yum -y install nginx
#192.168.154.11和192.168.154.12
systemctl start nginx #两个主机都开启Nginx服务
#192.168.154.11
cd /etc/nginx/
vim nginx.conf
可以发现,他的默认server块在conf.d配置文件中
cd conf.d/
vim default.conf
找到网页根目录在/usr/share/nginx/html
#192.168.154.11
将网页根目录下的所有东西,复制到共享存储服务器中
scp * 192.168.154.13:/opt
2.部署NF共享服务
#192.168.154.13 创建网页
cd /opt
mkdir html
vim game.html
<html>
<body>
<h1>this is nfs share web page!</h1>
<img src="game.jpg" />
</body>
</html>
rpm -q nfs-utils rpcbind #安装依赖包
systemctl enable --now rpcbind nfs
netstat -lntup #nfs端口号是2049 ,rpcbind端口号是111
nfs端口号是2049 ,rpcbind端口号是111
#192.168.154.13
vim /etc/exports #共享opt目录下的html目录
/opt/html 192.168.154.0/24(rw,sync,no_root_squash)
chmod 777 html/ #客户端用户也可进行操作
exportfs -arv #在线发布共享目录
#192.168.154.11和192.168.154.12
vim /etc/fstab #配置永久挂载NFS服务器的共享目录
192.168.154.13:/opt/html /usr/share/nginx/html nfs defaults,_netdev 0 0
cd /usr/share/nginx/html/ #挂载成功后就看到来自共享目录的文件
ls
192.168.154.11访问共享服务器测试结果
为了做区分,我们在192.168.154.13的共享目录/opt下又创建了www,添加了网页
cd /opt
mkdir www
chmod 777 www/
cd html/
cp * /opt/www/
vim /etc/exports
/opt/www 192.168.154.0/24(rw,sync,no_root_squash)
exportfs -avr
#192.168.154.12
showmount -e 192.168.154.13
cd
umount /usr/share/nginx/html/ #解挂载
vim /etc/fstab #重新挂载
192.168.154.13:/opt/www /usr/share/nginx/html nfs defaults,_netdev 0 0
mount -a
df -h
192.168.154.12访问共享服务器测试结果
3.部署LVS调度器
对192.168.154.10的主机添加网络适配器,并设为仅主机模式
cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-ens36
vim ifcfg-ens36 #修改网卡名及IP,注释网关和DNS
vim ifcfg-ens33 #注释网关和DNS
systemctl restart network
ifconfig
因为NAT模式下,调度器会成为所有节点服务器的网关,所以要修改192.168.154.11和192.168.154.12两台nginx服务器的网关
#192.168.154.11和192.168.154.12
cd /etc/sysconfig/network-scripts/
vim ifcfg-ens33
systemctl restart network
#192.168.154.10
vim /etc/sysctl.conf
net.ipv4.ip_forward=1 #设置IP转发功能
sysctl -p
#192.168.154.10
iptables -F && iptables -t nat -F #先清除所有nat表规则
iptables -nL
iptables -nL -t nat
iptables -t nat -A POSTROUTING -s 192.168.154.0/24 -o ens36 -j SNAT --to 12.0.0.10
iptables -nL -t nat
#192.168.154.10
modprobe ip_vs #加载ip_vs模块
cat /proc/net/ip_vs
#192.168.154.10
cd /etc/yum.repos.d/
mount /dev/cdrom /mnt
yum install -y ipvsadm #安装ipvsadm
#192.168.154.10
ipvsadm-save > /etc/sysconfig/ipvsadm #创建ipvsadm文件
systemctl start ipvsadm
4.配置负载分配策略
#192.168.154.10
ipvsadm -A -t 12.0.0.10:80 -s rr
ipvsadm -a -t 12.0.0.10:80 -r 192.168.154.11:80 -m
ipvsadm -a -t 12.0.0.10:80 -r 192.168.154.12:80 -m
ipvsadm
ipvsadm -ln
#192.168.154.11及192.168.154.12
vim /etc/nginx/nginx.conf #为了实验效果修改连接时间
systemctl restart nginx
client 测试
将客户端网卡换成VMnet1仅主机模式,跟调度器ens36一样,修改IP和网关
ipvsadm --save > /etc/sysconfig/ipvsadm #保存ipvsadm策略
ipvsadm -C
ipvsadm-restore < /etc/sysconfig/ipvsadm #导回保存的ipvsadm策略
ipvsadm -ln