目录
- 一、LVS-DR模式
- 二、LVS-DR模式的特点
- 三、LVS-DR中的ARP问题
- 四、LVS-DR的优点与缺点
- 五、为什么谁知lo:0而不是ens33:0
- 六、LVS负载均衡群集-DR模式部署
- 1.配置nfs共享(192.168.154.10)
- 2.部署第一台nginx服务(192.168.154.11)
- 3.部署第二台nginx服务(192.168.154.12)
- 4.部署部署LVS调度器(192.168.154.13)
一、LVS-DR模式
LVS-DR(Linux Virtual Server Director Server)工作模式,是生产环境中最常用的一 种工作模式。
LVS-DR 模式,Director Server 作为群集的访问入口,不作为网关使用
节点 Director Server 与 Real Server 需要在同一个网络中,返回给客户端的数据不需要经过 Director Server。
为了响应对整个群集的访问,Director Server 与 Real Server 都需要配置 VIP 地址。
Director Server作为群集的访问入口,但不作为网关使用,后端服务器池中的Real Server与Director Server在同一个物理网络中,发送给客户机的数据包不需要经过Director Server。为了响应对整个群集的访问,DS(前端负载均衡节点服务器)与RS(后端真实服务器)都需要配置有VIP地址。
每个Real Server上都有两个IP:VIP(负载均衡对外提供访问的 IP 地址)和RIP(负载均衡后端的真实服务器 IP 地址),但是VIP是隐藏的,就是不能提供解析等功能,只是用来做请求回复的源IP的,Director上只需要一个网卡,然后利用别名来配置两个IP:VIP和DIP(负载均衡与后端服务器通信的 IP 地址),在DIR接收到客户端的请求后,DIR根据负载算法选择一台rs sever的网卡mac作为客户端请求包中的目标mac,通过arp转交给后端RS serve处理,后端再通过自己的路由网关回复给客户端。
数据包流量分析:
客户端发送请求到 Director Server,请求的数据报文(源 IP 是 CIP,目标 IP 是 VIP) 到达内核空间。
Director Server 和 Real Server 在同一个网络中,数据通过二层数据链路层来传输。
内核空间判断数据包的目标 IP 是本机 VIP,此时 IPVS 比对数据包请求的服务是否是集群服务,是集群服务就重新封装数据包。修改源 MAC 地址为 Director Server 的 MAC 地址,修改目标 MAC 地址为 Real Server 的 MAC 地址,源 IP 地址与目标 IP 地址没有改 变,然后将数据包发送给 Real Server。
到达 Real Server 的请求报文的 MAC 地址是自身的 MAC 地址,就接收此报文。数 据包重新封装报文(源 IP 地址为 VIP,目标 IP 为 CIP),将响应报文通过 lo 接口传送给物理 网卡然后向外发出。
Real Server 直接将响应报文传送到客户端。
二、LVS-DR模式的特点
Director Server 和 Real Server 必须在同一个物理网络中。
Real Server 可以使用私有地址,也可以使用公网地址。如果使用公网地址,可以通过 互联网对 RIP 进行直接访问。
所有的请求报文经由 Director Server,但回复响应报文不能经过 Director Server。
Real Server 的网关不允许指向 Director Server IP,即不允许数据包经过 Director S erver。
Real Server 上的 lo 接口配置 VIP 的 IP 地址。
三、LVS-DR中的ARP问题
1、在LVS-DR负载均衡集群中,负载均衡与节点服务器都要配置相同的VIP地址。
2、在局域网中具有相同的IP地址,势必会造成各服务器ARP通信的紊乱。
当ARP广播发送到LVS-DR集群时,因为负载均衡器和节点服务器都是连接到相同网络上,它们都会接收到ARP广播。只有前端的负载均衡器进行响应,其他节点服务器不应该响应ARP广播。
3、对节点服务器进行处理,使其不响应针对VIP的ARP请求。
使用虚接口lo:0承载VIP地址
设置内核参数arp_ignore=1:系统只响应目的IP为本地IP的ARP请求
4、RealServer返回报文(源IP是VIP)经路由器转发,重新封装报文时,需要先获取路由器的MAC地址。
5、发送ARP请求时,Linux默认使用IP包的源IP地址(即VIP)作为ARP请求包中的源IP地址,而不使用发送接口的IP地址,如:ens33
6、路由器收到ARP请求后,将更新ARP表项
7、原有的VIP对应Director的MAC地址会被更新为VIP对应RealServer的MAC地址
8、路由器根据ARP表项,会将新来的请求报文转发给RealServer,导致Director的VIP失效
解决方法:
1、arp ignore=1
防止网关路由发送ARP广播时调度器和节点服务器都进行响应,导致ARP缓存表混乱,不对非本地物理网卡的ARP请求进行响应.因为VIP时承载lo:0
2、arp _announce=2
系统不使用响应数据的源IP地址(VIP)来作为本机进行ARP请求报文的源ip地址,而使用发送报文的物理网卡IP地址作为ARP请求报文的源I地址,这样可以防止网关路由器接受到的源IP地址为VIP的ARP请求报文后的又更新ARP缓存表,导致外网再发送请求时,数据包到达不了调度器。
四、LVS-DR的优点与缺点
-
优点
负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接发给用户。所以,负载均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为 超过100台的物理服务器服务,负载均衡器不再是系统的瓶颈。使用VS-DR方式,如果你的负载均衡器拥有100M的全双工网卡的话,就能使得整个 Virtual Server能达到1G的吞吐量。甚至更高。 -
缺点
这种方式需要所有的DIR和RIP都在同一广播域;不支持异地容灾。
五、为什么谁知lo:0而不是ens33:0
因为“负载调度机”转发时并不会改写数据包的目的IP,所以“节点服务器”收到的数据包的目的IP仍是“负载调度器”的虚拟服务IP。为了保证“节点服务器”能够正确处理该数据包,而不是丢弃,必须在“节点服务器”的环回网卡上绑定“负载调度器”的虚拟服务IP。这样“节点服务器”会认为这个虚拟服务IP是自己的IP,自己是能够处理这个数据包的。否则“节点服务器”会直接丢弃该数据包!
“节点服务器”上的业务进程必须监听在环回网卡的虚拟服务IP上,且端口必须和“负载调度机”上的虚拟服务端口一致。因为“负载调度机”不会改写数据包的目的端口,所以“节点服务器”服务的监听端口必须和虚拟服务端口一致,否则“节点服务器”会直接拒绝该数据包。
“节点服务器”处理完请求后,响应直接回给客户端,不再经过“负载调度机”。因为“节点服务器”收到的请求数据包的源IP是客户端的IP,所以理所当然“节点服务器”的响应会直接回给客户端,而不会再经过“负载调度机”。这时候要求“节点服务器”和客户端之间的网络是可达的。
“负载调度机”和“节点服务器”须位于同一个子网。因为“负载调度机”在转发过程中需要改写数据包的MAC为“节点服务器”的MAC地址,所以要能够查询到“节点服务器”的MAC。而要获取到“节点服务器”的MAC,则需要保证二者位于一个子网,否则“负载调度机”只能获取到“节点服务器”网关的MAC地址。
六、LVS负载均衡群集-DR模式部署
环境准备
NFS服务器:192.168.154.10
Web 服务器1:192.168.154.11
Web 服务器2:192.168.154.12
调度器:192.168.154.13
vip:192.168.154.188
客户端:192.168.154.30
1.配置nfs共享(192.168.154.10)
#检查两个服务是否已经安装,如果未安装,可以用yum直接安装
rpm -q nfs-utils rpcbind
systemctl start rpcbind nfs
#配置共享目录
cd /opt
mkdir html
mkdir www
chmod 777 /opt/html
chmod 777 /opt/www
echo '<h1>this is html web!</h1>' > html/index.html
echo '<h1>this is www web!</h1>' > www/index.html
vim /etc/exports
/opt/www 192.168.154.0/24(rw,sync,no_root_squash)
/opt/html 192.168.154.0/24(rw,sync,no_root_squash)
exportfs -arv
showmount -e
2.部署第一台nginx服务(192.168.154.11)
将nginx.repo的软件包拖到/etc/yum.repo.d下
yum -y install nginx
挂载到共享目录
vim /etc/fstab
192.168.154.10:/opt/www /usr/share/nginx/html nfs defaults,_netdev 0 0
mount -a
df -h
systemctl enable --now nginx
给lo网卡添加虚拟网卡
cd /etc/sysconfig/network-scripts/
cp ifcfg-lo ifcfg-lo:0
vim ifcfg-lo:0
DEVICE=lo:0
IPADDR=192.168.154.188
NETMASK=255.255.255.255
ONBOOT=yes
systemctl restart network
systemctl restart nginx
vim /etc/sysctl.conf
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce =2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce =2
sysctl -p
route add -host 192.168.154.188 dev lo:0
route -n
3.部署第二台nginx服务(192.168.154.12)
将nginx.repo的软件包拖到/etc/yum.repo.d下
yum -y install nginx
挂载到共享目录
vim /etc/fstab
192.168.154.10:/opt/html /usr/share/nginx/html nfs defaults,_netdev 0 0
mount -a
df -h
systemctl enable --now nginx
给lo网卡添加虚拟网卡
cd /etc/sysconfig/network-scripts/
cp ifcfg-lo ifcfg-lo:0
vim ifcfg-lo:0
DEVICE=lo:0
IPADDR=192.168.154.188
NETMASK=255.255.255.255
ONBOOT=yes
systemctl restart network
systemctl restart nginx
vim /etc/sysctl.conf
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce =2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce =2
sysctl -p
route add -host 192.168.154.188 dev lo:0
route -n
4.部署部署LVS调度器(192.168.154.13)
cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-ens33:0
vim ifcfg-ens33:0
DEVICE=ens33:0
ONBOOT=yes
IPADDR=192.168.154.188
NETMASK=255.255.255.255
systemctl restart network
modprobe ip_vs
cat /proc/net/ip_vs
yum -y install ipvsadm
修改内核参数
vim /etc/sysctl.conf
net.ipv4.ip_forward = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
sysctl -p
如果直接启动ipvsadm会报错
/var/log/messages查看一下,原因是缺少/etc/sysconfig/ipvsadm这个文件,所以我们可以手动给他添加一下
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm
ipvsadm -C
ipvsadm -A -t 192.168.154.188:80 -s rr
ipvsadm -a -t 192.168.154.188:80 -r 192.168.154.11:80 -g
ipvsadm -a -t 192.168.154.188:80 -r 192.168.154.12:80 -g
ipvsadm #激活相关规则
找一台虚拟机访问测试
curl http://192.168.154.188