文章目录
- 计算机系统
- 5G云计算
- 第四章 LINUX Haproxy搭建Web群集
- 一、Keepalived 概述
- 1. HAProxy的主要特性
- 2.常见的 Web 集群调度器
- 3.HAProxy负载均衡策略
- 4.LVS、Nginx、HAproxy的区别
- 二、Haproxy搭建 Web 群集 + Keepalived部署高可用集群
- 1.haproxy 服务器部署,配置负载调度器(主、备相同)
- 2.配置节点服务器(192.168.58.61、192.168.68.62)
- 3.测试效果
- 4. 日志定义
- 5. 内核优化
计算机系统
5G云计算
第四章 LINUX Haproxy搭建Web群集
一、Keepalived 概述
HAProxy是可提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,是免费、快速并且可靠的一种解决方案。HAProxy非常适用于并发大(并发达1w以上)web站点,这些站点通常又需要会话保持或七层处理。HAProxy的运行模式使得它可以很简单安全的整合至当前的架构中,同时可以保护web服务器不被暴露到网络上
1. HAProxy的主要特性
主要特性 |
---|
可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美 |
最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s |
支持多达8种负载均衡算法 |
支持Session会话保持,Cookie的引导 |
支持通过获取指定的url来检测后端服务器的状态 |
支持虚机主机功能,从而实现web负载均衡更加灵活 |
支持连接拒绝、全透明代理等独特的功能 |
拥有强大的ACL支持,用于访问控制 |
支持TCP和HTTP协议的负载均衡转发 |
支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成 |
2.常见的 Web 集群调度器
目前常见的Web集群调度器分为软件和硬件
软件通常使用开源的LVS、Haproxy、Nginx
软件集群调度器 | 说明 |
---|---|
LVS | 基于内核的调度器,只支持四层负载均衡,性能最好,但是搭建相对复杂,支持对端口和URL进行检查 |
Nginx | 基于软件的调度器,支持四层和七层负载均衡,支持正则,upstream模块支持群集功能,但是对群集节点健康检查功能不强,只支持对端口的检查,高并发性能没有 Haproxy好 |
Haproxy | 基于软件的调度器,支持四层和七层负载均衡,支持正则,负载均衡性能次于LVS,优于nginx,支持端口、URI、脚本等多种检查方式 |
硬件一般使用比较多的是F5、Array,也有很多人使用国内的一些产品,如梭子鱼、绿盟等
3.HAProxy负载均衡策略
负载均衡策略 | 说明 |
---|---|
roundrobin | 表示简单的轮询 |
static-rr | 表示根据权重 |
leastconn | 表示最少连接者先处理 |
source | 表示根据请求源IP |
uri | 表示根据请求的URI,做cdn需使用 |
url_param | 表示根据请求的URl参数’balance url_param’ requires an URL parameter name |
hdr(name) | 表示根据HTTP请求头来锁定每一次HTTP请求 |
rdp-cookie(name) | 表示根据cookie(name)来锁定并哈希每一次TCP请求 |
4.LVS、Nginx、HAproxy的区别
区别 |
---|
LVS基于Linux操作系统内核实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡 |
LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而HAProxy和Nginx都可以实现4层和7层技术,HAProxy可提供TCP和HTTP应用的负载均衡综合解决方案 |
LVS因为工作在ISO模型的第四层,其状态监测功能单一,而HAProxy在状态监测方面功能更丰富、强大,可支持端口、URL、脚本等多种状态检测方式 |
HAProxy功能强大,单纯从效率上来讲HAProxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的。但整体性能低于4层模式的LVS负载均衡 |
Nginx主要用于Web服务器或缓存服务器。Nginx的upstream模块虽然也支持群集功能,但是性能没有LVS和Haproxy好,对群集节点健康检查功能不强,只支持通过端口来检测,不支持通过URL来检测 |
二、Haproxy搭建 Web 群集 + Keepalived部署高可用集群
主负载调度器:本地网卡 ens33:192.168.58.63/24
VIP虚拟网卡ens33:0:192.168.58.188/32
备负载调度器:本地网卡 ens33:192.168.58.64/24
Web节点服务器1:本地网卡 ens33:192.168.58.61/24
VIP虚拟回环网卡 lo:0:192.168.58.188/32
Web节点服务器2:本地网卡 ens33:192.168.68.62/24
VIP虚拟回环网卡 lo:0:192.168.58.188/32
tomcat多实例服务器:192.168.58.60/24
客户端:192.168.58.10/24
1.haproxy 服务器部署,配置负载调度器(主、备相同)
systemctl stop firewalld.service
setenforce 0
yum -y install haproxy keepalived
useradd -M -s /sbin/nologin haproxy
-----------------------------------------------------------------------
HAProxy 的配置文件共有 5 个域:
●global:用于配置全局参数
●default:用于配置所有frontend和backend的默认属性
●frontend:用于配置前端服务(即HAProxy自身提供的服务)实例
●backend:用于配置后端服务(即HAProxy后面接的服务)实例组
●listen:frontend + backend的组合配置,可以理解成更简洁的配置方法,frontend域和backend域中所有的配置都可以配置在listen域下
-----------------------------------------------------------------------
vim haproxy.cfg
global
###全局配置,主要用于定义全局参数,属于进程级的配置,通常和操作系统配置有关
###将info(及以上)的日志发送到rsyslog的local0接口,将warning(及以上)的日志发送到rsyslog的local1接口
log 127.0.0.1 local0 info
log 127.0.0.1 local1 warning
maxconn 30000
###最大连接数,HAProxy 要求系统的 ulimit -n 参数大于 maxconn*2+18
#chroot /var/lib/haproxy
###修改haproxy工作目录至指定目录,一般需将此行注释掉
pidfile /var/run/haproxy.pid
###指定保存HAProxy进程号的文件
user haproxy
###以指定的用户名身份运行haproxy进程
group haproxy
###以指定的组名运行haproxy,以免因权限问题带来风险
daemon
###让haproxy以守护进程的方式工作于后台
#nbproc 1
###指定启动的haproxy进程个数,只能用于守护进程模式的haproxy,默认只启动一个进程。haproxy是单进程、事件驱动模型的软件,单进程下工作效率已经非常好,不建议开启多进程
spread-checks 2
###在haproxy后端有着众多服务器的场景中,在精确的时间间隔后统一对众服务器进行健康状况检查可能会带来意外问题;此选项用于将其检查的时间间隔长度上增加或减小一定的随机时长;默认为0,官方建议设置为2到5之间。
defaults
###配置默认参数,这些参数可以被用到listen,frontend,backend组件
log global
###所有前端都默认使用global中的日志配置
mode http
###模式为http(7层代理http,4层代理tcp)
option http-keep-alive
###使用keepAlive连接,后端为静态建议使用http-keep-alive,后端为动态应用程序建议使用http-server-close
option forwardfor
###记录客户端IP在X-Forwarded-For头域中,haproxy将在发往后端的请求中加上"X-Forwarded-For"首部字段
option httplog
###开启httplog,在日志中记录http请求、session信息等。http模式时开启httplog,tcp模式时开启tcplog
option dontlognull
###不在日志中记录空连接
option redispatch
###当某后端down掉使得haproxy无法转发携带cookie的请求到该后端时,将其转发到别的后端上
option abortonclose
###当服务器负载很高的时候,自动结束掉当前队列处理比较久的链接
maxconn 20000
###最大连接数,“defaults”中的值不能超过“global”段中的定义
retries 3
###定义连接后端服务器的失败重连次数,连接失败次数超过此值后会将对应后端服务器标记为不可用
#contimeout 5000
###设置连接超时时间,默认单位是毫秒
#clitimeout 50000
###设置客户端超时时间,默认单位是毫秒
#srvtimeout 50000
###设置服务器超时时间,默认单位是毫秒
timeout http-request 2s
###默认http请求超时时间,此为等待客户端发送完整请求的最大时长,用于避免类DoS攻击。haproxy总是要求一次请求或响应全部发送完成后才会处理、转发
timeout queue 3s
###默认客户端请求在队列中的最大时长
timeout connect 1s
###默认haproxy和服务端建立连接的最大时长,新版本中替代contimeout,该参数向后兼容
timeout client 10s
###默认和客户端保持空闲连接的超时时长,在高并发下可稍微短一点,可设置为10秒以尽快释放连接,新版本中替代clitimeout
timeout server 2s
###默认和服务端保持空闲连接的超时时长,局域网内建立连接很快,所以尽量设置短一些,特别是高并发时,新版本中替代srvtimeout
timeout http-keep-alive 10s
###默认和客户端保持长连接的最大时长。优先级高于timeout http-request 也高于timeout client
timeout check 2s
###和后端服务器成功建立连接后到最终完成检查的最大时长(不包括建立连接的时间,只是读取到检查结果的时长)
frontend http-in #定义前端域
bind *:80
###设置监听地址和端口,指定为*或0.0.0.0时,将监听当前系统的所有IPv4地址
maxconn 18000
###定义此端口上的maxconn
acl url_static path_beg -i /static /images / ###定义ACL,当uri以定义的路径开头时,ACL[url_static1]为true
acl url_static path_end -i .jpg .jpeg .gif .png .html .htm .txt ###定义ACL,当uri以定义的路径结尾时,ACL[url_static2]为true
use_backend static if url_static
###当[url_static]为true时,定向到后端域static中
default_backend dynamic_group
###其他情况时,定向到后端域dynamic_group中
backend static #定义后端域static
balance roundrobin
###使用轮询算法
option httpchk GET /test.html
###表示基于http协议来做健康状况检查,只有返回状态码为2xx或3xx的才认为是健康的,其余所有状态码都认为不健康。不设置该选项时,默认采用tcp做健康检查,只要能建立tcp就表示健康
server inst1 192.168.58.61:80 maxconn 5000 check inter 2000 rise 2 fall 3
server inst2 192.168.58.62:80 maxconn 5000 check
###同上,inter 2000 rise 2 fall 3是默认值,可以省略
backend dynamic_group #定义后端域dynamic_group
balance roundrobin
option http-server-close
cookie HA_STICKY_dy insert indirect nocache
server appsrv1 192.168.58.60:8080 cookie appsrv1 maxconn 5000 check
server appsrv2 192.168.58.60:8081 cookie appsrv2 maxconn 5000 check
listen stats #定义监控页面
bind *:1080 #绑定端口1080
stats enable #启用统计报告监控
stats refresh 30s #每30秒更新监控数据
stats uri /stats #访问监控页面的uri
stats realm HAProxy\ Stats #监控页面的认证提示
stats auth admin:admin #监控页面的用户名和密码
-----------------------------------------------------------------------
●balance roundrobin #负载均衡调度算法
roundrobin:轮询算法;leastconn:最小连接数算法;source:来源访问调度算法,类似于nginx的ip_hash
●check 指定此参数时,HAProxy 将会对此 server 执行健康检查,检查方法在 option httpchk 中配置。同时还可以在 check 后指定 inter, rise, fall 三个参数, 分别代表健康检查的周期、连续几次成功认为 server UP、连续几次失败认为 server DOWN,默认值是 inter 2000 rise 2 fall 3
inter 2000 #表示启用对此后端服务器执行健康检查,设置健康状态检查的时间间隔,单位为毫秒
rise 2 #设定server从离线状态重新上线需要成功检查的次数;不指定默认为2
fall 3 #表示连续三次检测不到心跳频率则认为该节点失效
●cookie:在 backend server 间启用基于 cookie 的会话保持策略,最常用的是 insert 方式。
cookie HA_STICKY_dy insert indirect nocache,指 HAProxy 将在响应中插入名为 HA_STICKY_dy 的 cookie,其值为对应的 server 定义中指定的值,并根据请求中此 cookie 的值决定转发至哪个 server。
indirect #代表如果请求中已经带有合法的 HA_STICK_dy cookie,则 HAProxy 不会在响应中再次插入此 cookie
nocache #代表禁止链路上的所有网关和缓存服务器缓存带有 Set-Cookie 头的响应
●若节点配置后带有“backup”表示该节点只是个备份节点,仅在所有在线节点都失效该节点才启用。不携带“backup”,表示为在线节点,和其它在线节点共同提供服务。
-----------------------------------------------------------------------
-----------------------------------------------------------------------
#frontend域和backend域中所有的配置都可以配置在listen域下
listen webcluster
bind *:80
option httpchk GET /test.html
balance roundrobin
server inst1 192.168.80.100:80 check inter 2000 rise 2 fall 3
server inst2 192.168.80.101:80 check inter 2000 rise 2 fall 3
-----------------------------------------------------------------------
vim keepalived.conf
......
global_defs {
smtp_server 127.0.0.1
router_id HA_01
#vrrp_strict
}
vrrp_script chk_nginx {
###指定监控脚本的路径
script "/etc/keepalived/haproxy_check.sh"
###检测的间隔时间
interval 2
###权重
weight 2
}
vrrp_instance VI_1 {
state MASTER
interface ens33
virtual_router_id 10
#nopreempt
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.58.188
}
track_script { ###加载追踪模块
chk_haproxy
}
}
chmod +x /etc/keepalived/check_haproxy.sh
###检测nginx是否启动的脚本
#!/bin/bash
if ! killall -0 haproxy &> /dev/null
then
systemctl stop haproxy
fi
2.配置节点服务器(192.168.58.61、192.168.68.62)
参考上一篇博客的七层nginx服务器轮询,动静分离
3.测试效果
在客户端使用浏览器打开 http://192.168.58.188/test.html ,不断刷新浏览器测试负载均衡效果
访问一下监控页面 http://192.168.58.188:1080/stats 并提示输入用户名密码 admin/admin
再在主服务器关闭 keepalived 服务后再测试, systemctl stop keepalived
4. 日志定义
默认 haproxy 的日志是输出到系统的 syslog 中,查看起来不是非常方便,为了更好的管理 haproxy 的日志,我们在生产环境中一般单独定义出来。需要将 haproxy 的 info 及 notice 日志分别记录到不同的日志文件中
//方法一
vim /etc/haproxy/haproxy.cfg
global
log /dev/log local0 info
log /dev/log local0 notice
......
defaults
......
log global
......
#需要修改rsyslog配置,为了便于管理。将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。
vim /etc/rsyslog.d/haproxy.conf
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
#说明:
这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。“&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。
service rsyslog restart
service haproxy restart
tail -f /var/log/haproxy/haproxy-info.log #查看haproxy的访问请求日志信息
//方法二
#修改haproxy.cfg,将info及以上级别的日志发送到rsyslog的local0接口,将warning及以上级别的日志发送到rsyslog的local1接口
vim /etc/haproxy/haproxy.cfg
global
......
log 127.0.0.1 local0 info
log 127.0.0.1 local1 warning
......
defaults
......
log global
......
#注:信息级日志会打印HAProxy 的每一条请求处理,会占用大量的磁盘空间,在生产环境中,将日志级别调整为notice
#为 rsyslog 添加 haproxy 日志的配置
mkdir /var/log/haproxy
vim /etc/rsyslog.d/haproxy.conf
$ModLoad imudp
$UDPServerRun 514
$FileCreateMode 0644 #日志文件的权限
$FileOwner haproxy #日志文件的owner
local0.* /var/log/haproxy/haproxy.log #local0接口对应的日志输出文件
local1.* /var/log/haproxy/haproxy_warn.log #local1接口对应的日志输出文件
#修改 rsyslog 的启动参数
vim /etc/sysconfig/rsyslog
......
SYSLOGD_OPTIONS="-c 2 -r -m 0"
#重启 rsyslog 和 HAProxy
service rsyslog restart
service haproxy restart
tail -f /var/log/haproxy/haproxy.log
5. 内核优化
抢占模式即MASTER从故障中恢复后,会将VIP从BACKUP节点中抢占过来。非抢占模式即MASTER恢复后不抢占BACKUP升级为MASTER后的VIP。
非抢占式俩节点state必须为bakcup,且必须配置nopreempt
。
调整 proc 响应参数,关闭Linux 内核的重定向参数响应
vim /etc/sysctl.conf
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
#开启重用。允许将TIME-WAITsockets重用于新的TCP连接,默认0,表示关闭;
net.ipv4.tcp_tw_reuse = 1
#用于向外连接的端口范围。缺省情况下很小
net.ipv4.ip_local_port_range = 1024 65535
#SYN队列长度,记录尚未收到客户端确认信息的连接请求的最大值。默认为1024,加大队列长度可容纳更多等待连接的网络连接数。
net.ipv4.tcp_max_syn_backlog = 10240
#表示系统同时保持TIME_WAIT最大数量,如果超过,TIME_WAIT将立刻被清除并打印警告信息。默认180000,此项参数可控制TIME_WAIT 最大数量
net.ipv4.tcp_max_tw_buckets = 5000
#系统中最多有多少个TCP套接字不被关联到任何一个用户文件句柄上,如超过,连接将即刻被复位并打印警告信息,这个限制仅是为防止简单的DoS攻击,不能过分依靠它或人为减小这个值,更应该增加这个值(如果增加内存后)
net.ipv4.tcp_max_orphans = 3276800
#为打开对端的连接,内核需发送个SYN并附带个回应前一个SYN的ACK。即三次握手中的第二次握手。该设置决定内核放弃连接前发SYN+ACK包的数量。
net.ipv4.tcp_synack_retries = 3
#如web应用中listen函数的backlog默认会给我们内核参数的net.core.somaxconn限制到128,而 nginx 定义的 NGX_LISTEN_BACKLOG 默认511,所以有必要调整这个值。
net.core.somaxconn = 32768
sysctl -p