MHA的含义
MHA:master high availability,建立在主从复制基础上的故障切换的软件系统。
主从复制的单点问题:
当主从复制当中,主服务器发生故障,会自动切换到一台从服务器,然后把从服务器升格成主,然后继续主从的架构。
- master开启二进制日志,并允许从节点复制主节点的二进制日志的内容
- 通过vip地址,当主宕机之后,vip会自动的飘移到从节点。
- 从节点升级为主服务器,然后从宕机的master保存二进制日志,将更新的内容同步到新主,然后再同步到从节点。
启动MHA实验
我们建立一个主从复制架构,如下:
主:mysql1,192.168.254.31 VIP:192.168.254.100
从1(主备):mysql2,192.168.254.32
从2:mysql3,192.168.254.33
nginx1:MHA的manager节点,192.168.254.14
zw-virtual-machine:客户端,192.168.254.11
MHA建立在主从复制基础上的,所以首先完成主从复制
1、先检查所以服务器时间是否同步,不同步使用命令:ntpdate ntp.aliyun.com
2、配置三台服务器mysql的主配置文件
配置主服务器mysql的主配置文件,添加如下内容
- relay_log_recovery=1 #启用之后,从库崩溃或者重启时,会自动尝试从日志当中恢复
配置从1(备)服务器mysql的主配置文件,添加如下内容
- relay-log=relay-log-bin #指定了从服务器上中继日志的文件
- relay-log-index=slave-relay-bin.index #中继日志索引文件的名称
- relay_log_recovery = 1 #指定了从服务器在启动时,是否执行中继日志的恢 复操作,保持数据的一致。
配置从2服务器mysql的主配置文件,添加如下内容
三台修改完之后,都要重启mysql服务
3、三台服务器创建mysql用户
创建主从同步用户myslave
CREATE USER 'myslave'@'192.168.233.%' IDENTIFIED WITH mysql_native_password BY '123456';
GRANT REPLICATION SLAVE ON *.* TO 'myslave'@'192.168.233.%';
创建mha用户
CREATE USER 'mha'@'192.168.233.%' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'192.168.233.%' WITH GRANT OPTION;
创建用户,防止从库通过主机名连接不上主库
CREATE USER 'mha'@'master' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'master';
CREATE USER 'mha'@'slave1' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'slave1';
CREATE USER 'mha'@'slave2' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'slave2';
最后刷新权限
flush privileges;
4、开启从服务器同步,建立与主服务器的同步关系
获取主服务器二进制文件名和位置
两台从服务器建立与主服务器的同步,并开启slave以及查看同步状态
5、终端测试是否同步
在主服务器的mysql终端创建库和表,检查是否在2台从服务器上同步
成功的话,将两个从库设置成只读模式,模拟读写分离即可。
6、安装MHA的node节点和manager节点
四台主机安装依赖环境
apt install -y libdbd-mysql-perl \
libconfig-tiny-perl \
liblog-dispatch-perl \
libparallel-forkmanager-perl \
libextutils-cbuilder-perl \
libmodule-install-perl \
make
四台主机都要编译安装mha-node节点
- NODE MANAGER:node表示监控每台机器上mysql的状态,传回给manager;manager表示管理节点,控制mha的状态
perl Makefile.PL #perl编译
make && make install
nginx1上再另外编译安装mha-manager节点
perl Makefile.PL
make && make install
我们可以在/usr/local/bin目录下,查看mha配置文件
- masterha_check_ssh:检查mha节点之间ssh的配置和通信
- masterha_manager:manager的启动脚本
- masterha_check_status:检查mha的运行状态
- masterha_stop:关闭manager
- masterha_master_switch:控制故障转移的方式
- ave_binary_logs:检查,保存,复制master节点的二进制日志
- apply_diff_relay_logs:识别二进制日志当中的差异部分,把差异部分同步到slave
7、配置所有节点之间的MHA的ssh通信,免密登录彼此之之间的服务器
也就是说,nginx1与三台mysql服务器进行免密通信,三台mysql服务器之间相互设置免密通信
直接回车即可
注意要输入服务器的密码
8、在nginx1保留权限复制/opt/mha4mysql-manager-0.57/samples/scripts/ 到/usr/local/bin/下
然后将/scripts/master_ip_failover文件复制到/usr/local/bin/下
查看scripts/mha-manager配置文件
- master_ip_failover:自动切换vip的管理脚本
- master_ip_online_change:在线切换vip的管理脚本
- power_manager:故障发生后关闭主机的脚本
- send_report:故障发生时,发生报警的脚本
9、在nginx1配置master_ip_failover自动切换vip的管理脚本文件
清空所有内容,添加新的脚本如下
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
my $vip = '192.168.254.100';
my $brdc = '192.168.254.255';
my $ifdev = 'ens33';
my $key = '1';
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";
my $exit_code = 0;
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
### A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
10、在nginx1创建hma的管理文件,用来申明主从位置
先创建好/etc/masterha目录,复制/opt/mha4mysql-manager-0.57/samples/conf/app1.cnf 到/etc/masterha/下
配置app1.cnf文件,删除里面所有配置,添加代码如下
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data #指向到mysql的默认位置
master_ip_failover_script=/usr/local/bin/master_ip_failover #切换脚本
master_ip_online_change_script=/usr/local/bin/master_ip_online_change #在线切换脚本
password=manager
ping_interval=1 #每一秒检测一次主的状态
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.233.22 -s 192.168.233.23 #从对主监听
shutdown_script=""
ssh_user=root
user=mha
[server1]
hostname=192.168.233.21 #主服务器
port=3306
[server2]
candidate_master=1 #声明sever2的备服务器
check_repl_delay=0 #立刻切换
hostname=192.168.233.22 #备用主服务器
port=3306
[server3]
hostname=192.168.233.23 #从服务器2
port=3306
11、在nginx1修改动态库文件
修改/usr/local/share/perl/5.34.0/MHA/NodeUtil.pm,具体修改如下
$str =~ /(\d+)\.(\d+)/;
my $strmajor = "$1.$2";
my $result = sprintf( '%03d%03d', $1, $2 ) if $str =~ m/(\d+)\.(\d+)/;
最后给主服务器,创建ens33的虚拟地址192.168.254.100,并将三台mysql服务器都创建两个软连接
12、在nginx1先检查ssh之间通信情况
masterha_check_ssh -conf=/etc/masterha/app1.cnf
再检查整个mha集群的状态
masterha_check_repl -conf=/etc/masterha/app1.cnf
13、在nginx1启动masterha_manager并检查主服务器状态
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
- nohup:执行记录,把执行记录保存
masterha_check_status --conf=/etc/masterha/app1.cnf
显示现在master节点是我们主服务器mysql1
14、在客户端zw-virtual-machine登录我们数据库
先下载apt版本MHA,apt -y install mariadb-sever
然后登录我们数据库,显示成功,注意登录要使用我们的VIP
模拟故障切换实验
在上面启动HMA实验的基础上,我们模拟故障切换
首先打开HMA的日志,当我们关闭掉mysql1的mysql服务后,会发现以及切换到了备服务器上
这时候VIP就飘到了mysql2上了,在客户端zw-virtual-machine依然可以登录数据库,表明故障切换成功
故障恢复实验
从节点升级为主服务器后,然后从宕机的master保存二进制日志,将更新的内容同步到新主,然后再同步到从节点。
这时候我们发现/etc/masterha/app1.cnf配置文件,之前的sever1内容已经没了
1、修改app1.cnf配置文件,我们将错就错,把mysql2改成主,mysql1改成备。
2、修改中继日志
修改从mysql1的mysql主配置文件,具体如下
修改主mysql2的mysql主配置文件,具体如下
重启mysql服务
3、重新构建主从复制架构,将mysql1加入到从架构
这时候就获取主服务器mysql2的二进制文件名和位置
mysql1和mysql3建立与主服务器mysql2的同步
4、在nginx1先检查ssh之间通信情况
masterha_check_ssh -conf=/etc/masterha/app1.cnf
再检查整个mha集群的状态
masterha_check_repl -conf=/etc/masterha/app1.cnf
最后在启动masterha_manager并检查主服务器状态