MySQL数据库的主从复制与读写分离
- 一、主从复制原理
- 1、MySQL支持主从复制类型
- 2、主从复制的原理
- 3、主从复制的架构
- 4、mysql主从复制延迟
- 4、slave从服务器的配置
- 5、验证主从复制的效果
- 6、从服务器的故障问题解决
- 1、遇到Slave_IO_Running:NO的情况
- 2、遇到Slave_SQL_Running:NO的情况
- 三、读写分离原理
- 1、读写分离存在的意义
- 2、什么时候要读写分离?
- 3、主从复制与读写分离
- 4、MySql读写分离类型
- 4.1 基于程序代码内部实现
- 4.2 基于中间代理层实现
- 四、读写分离实验
- 1、前期环境
- 2、Amoeba服务搭建
- 2.1 JDK环境安装
- 2.2 将三台mysql主从服务器设置权限
- 2.3 安装amoeba安装包
- 2.3 修改主配置文件-amoeba.xml
- 2.4 修改数据库配置文件-dbServers.xml
- 2.5 启动amoeba服务
- 3、测试验证
- 3.1 验证写入是否从master主机写入
- 3.2 测试是否读写分离
- 3.3 测试读的时候,是否是以轮询方法
- 五、总结
- 1、主从复制
- 2、读写分离
概述
在企业应用中、成熟的业务通常数据量都比较大。
单台mysql在安全性、高可用性和高并发方面都无法满足实际的需求
配置多台主从数据服务器以实现读写分离
一、主从复制原理
1、MySQL支持主从复制类型
基于语句的复制(STATEMENT)
- 在主服务器上执行的sql语句,在从服务器执行同样的语句
- mysql默认采用的方式,效率高。
基于行的复刻(ROW)
- 把改变的内容复制过去
基于混合类型的复制(MIXED)
- 默认采用基于语句的复制,一旦发现基于语句无法精确复制时,就会采用基于行的复制。
2、主从复制的原理
二日志
- 二进制日志:记录数据库变动的信息(语句、变动记录)
- 中继日志文件:用于临时存放二进制文件内容
三线程
- dump线程:①监听I/O线程请求。②将二进制日志文件更新的数据发送给slave的I/O线程。
- I/O线程:①监听master主机的二进制文件。②向master的dump线程发出同步请求
- SQL线程:读取中继日志中的文件,更新到本机的数据库
1、首先client端(tomcat)将数据写入到master节点的数据库中,master节点会通知存储引擎提交事务,同时会将数据以(基于行、基于SQL、基于混合)的方式保存在二进制文件中。
2、slave节点会开启 I/O 线程,用于监听master的二进制日志的更新,一旦发生更新内容,则向master的dump线程发出同步请求。
3、master的dump线程在接收到salve的I/O请求后,会读取二进制日志文件中更新的数据,并发送给slave的I/O线程。
4、slave的I/O线程接收到数据后,会保存在slave节点的中继日志中。
5、同时,slave节点中的SQL线程,会读取中继日志中的数据,更新在本地的mysql数据库中
6、最终,完成slave---> 复制master数据,达到主从同步的效果。
中继日志通常会位于OS缓存中,所以中继日志的开销很小。
复制过程有一个很重要的限制,即复制在slave上时串行化的,也就是说,master上的并行更新操作不能再slave上并行操作。
(1)Master节点将数据的改变记录成二进制日志(bin log),当Master上的数据发生改变时,则将其改变写入二进制日志中。
(2)Slave节点会在一定时间间隔内对Master的二进制日志进行探测其是否发生改变,如果发生改变,则开始一个I/O线程请求 Master的二进制事件。
(3)同时Master节点为每个I/O线程启动一个dump线程,用于向其发送二进制事件,并保存至Slave节点本地的中继日志(Relay log)中,Slave节点将启动SQL线程从中继日志中读取二进制日志,在本地重放,即解析成 sql 语句逐一执行,使得其数据和 Master节点的保持一致,最后I/O线程和SQL线程将进入睡眠状态,等待下一次被唤醒。
注:
●中继日志通常会位于 OS 缓存中,所以中继日志的开销很小。
●复制过程有一个很重要的限制,即复制在 Slave上是串行化的,也就是说 Master上的并行更新操作不能在 Slave上并行操作。
3、主从复制的架构
架构一:一主多备的原理
- 一般用来读写分离,master写,其他的slave读,这种架构最大的问题时I/O压力 集中,在master上多台同步影响IO
架构二:M-S-S
- 为中继代理,来分担master的压力,salve中继需要开启bin-log,并配置log-slave-updates。
- slave中继可使用Black-hole存储引擎,不会把数据存储到磁盘,只记录二进制日志
架构三:M-M/双主互为主备(互为主从)
- 很多人误以为这样可以做到mysql负载均衡,实际没什么好处,每个服务器需要同样的同步更新,破环事务的隔离性和数据的一致性。
架构四:M-M-M,监控三台机器互为对方的master
- 天生的缺陷:复制延迟,slave上同步要慢于master,如果高并发的情况那么延迟更严重,mysql在5.6以及自身可实现fail over故障切换。
4、mysql主从复制延迟
- master服务器高并发,形成大量事务
- 网络延迟
- 主从硬件设备导致(cpu主频、内存io、硬盘io)
- mysql默认使用异步复制,可以优化mysql参数。比如增大innodb_buffer_pool_size,让更多操作在mysql内存中完成。从库还可以使用高性能主机,包括cpu强悍、内存加大,避免使用虚拟云主机,使用物理主机,这样升级了I/O方面性。还可以将从库使用SSD磁盘。网络优化,避免跨机房使用。
二、主从复制实验
服务器名称 | ip地址 |
---|---|
主服务器 | 192.168.248.101 |
从服务器1 | 192.168.248.10 |
从服务器2 | 192.168.248.104 |
1、前期准备
所有服务器的防火墙均关闭
2、mysql时间同步
1.1 主服务设置被同步的时间
yum -y install ntp
#ntp为时间同步协议,下载资源包
vim /etc/ntp.conf
server 127.127.0.0 #设置本地时钟源(网段与本机相同)
fudge 127.127.0.0 stratum 8 #设置时间层级为8(限制在15以为)
systemctl start ntpd
#重启natp服务
1.2 两台从服务器设置时间同步(两台服务器一样配置)
yum -y install ntp ntpdate
#下载时间同步包
systemctl start ntpd
#直接开启服务
/usr/sbin/ntpdate 192.168.248.101
#时间同步指向主master服务器
crontab -e
*/10 * * * * /usr/sbin/ntpdate 192.168.248.101
#写入周期计划任务,每10分钟同步一次时间
3、master主服务设置
vim /etc/my.cnf
server-id=1 #server-id不能重复
log-bin=master-bin #添加,主服务器开启二进制文件
log-slave-updates=true #添加,允许从服务器更新二进制文件
systemctl restart mysqld
#重启mysqld服务
mysql -uroot -p
#登录数据库
grant replication slave on *.* to 'myslave'@'192.168.248.%' identified by 'abc123';
#允许192.168.248.0网段的所有主机使用myslave账号和abc123密码登录并使用库和表
flush privileges;
#将用户和权限配置保存在内存中
show master status;
#查看master服务器当前正在执行的二进制日志位置,和列偏移量
4、slave从服务器的配置
vim /etc/my.cnf
server-id=2 #修改,id不能与master相同,两个slave也不能相同
relay-log=relay-log-bin #添加,开启中继日志,从服务器上同步master服务器日志文件到本地
relay-log-index=slave-relay-bin.index #添加,定义中继日志文件的位置和名称
relay_log_recovery=1
#当 slave 从库宕机后,假如 relay-log 损坏了,导致一部分中继日志没有处理,则自动放弃所有未执行的 relay-log,并且重新从 master 上获取日志,这样就保证了relay-log 的完整性。默认情况下该功能是关闭的,将 relay_log_recovery 的值设置为 1 时, 可在 slave 从库上开启该功能,建议开启
systemctl restart mysqld
#启动mysqld服务器
mysql -uroot -pabc123
#登录数据库
change master to master_host='192.168.248.101',master_user='myslave',master_password='abc123',master_log_file='master-bin.000001',master_log_pos=154;
#配置同步,注意master_log_file 和master_log_pos的值要与master查询的一致。
start slave;
#开启同步,如有报错执行 reset slave;
show slave status\G
#查看slave状态(查看I/O和SQL都为YES)
------------------------如果中途加从服务器-----------------------------
5、验证主从复制的效果
在master服务器上创建任意一个库
在两台从服务器上进行查看,是否可以看到master所创建的数据库
6、从服务器的故障问题解决
如果在查看服务器上slave状态时,出现NO的问题。就是执行: show slave status\G,查看的结果,可以往下看,或查看到各个对应的报错的信息。
1、遇到Slave_IO_Running:NO的情况
分析:可以向下查看对应的报错的信息。
- 先总览看 : last_Error(报错数量) Last_Error(报错原因) 。
- 再看IO的报错: Last_IO_Errno: 、Last_IO_Error: 他们之间的信息
2、遇到Slave_SQL_Running:NO的情况
分析:可以向下查看对应的报错的信息。
- 先总览看 : last_Error(报错数量) Last_Error(报错原因) 。
- 再看IO的报错: Last_SQL_Errno: 、Last_SQL_Error: 他们之间的信息
#问题:slave_IO_Running:NO
1、网络不通
2、my.cnf配置文件有问题
3、change中配置出错,密码、file文件名、pos偏移量与master不相符
4、防火墙没有关闭
#问题:slave_SQL_Running:NO
1、程序可能在slave上进行了写操作
2、也可能是slave机器重起后,事务回滚造成的.
执行这个:set GLOBAL SQL_SLAVE_SKIP_COUNTER=1;
三、读写分离原理
读写分离就是只在主服务器上写,只在从服务器上读
基本的原理是让主数据库处理事务操作,而从数据库处理select查询,数据库复制被用来把主数据库上事务性操作导致的变更同步到集群中的从数据库。
1、读写分离存在的意义
- 因为数据库的 “写” (写10000条数据可能要3分钟),操作是比较耗时的。
- 但是数据库的 “读” (读10000条数据可能只要5秒中)。
- 所谓读写分离,解决的是,数据库的写入,影响了查询的效率。
- 还可能因为锁表的原因,进行读写分离。
2、什么时候要读写分离?
数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用,利用数据库主从同步,再通过读写分离可以分担数据库的压力,提高性能。
3、主从复制与读写分离
在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论时在安全性,高可能性还是高并发等各个方面都不是完全不能满足实际需求的。因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。优点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制时对数据库中的数据、语句做备份。
4、MySql读写分离类型
4.1 基于程序代码内部实现
-
在代码中根据select、insert进行路由分类, 这类方法也是目前生产环境应用最广泛的。
-
优点是性能较好: ,因为在程序代码中实现,不需要增加额外的设备为硬件开支
-
缺点:是需要开发人员来实现,运维人员无从下手。
-
但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型的java应用,如果在程序代码中实现读写分离对代码改动就较大
4.2 基于中间代理层实现
代理一般位于客户端和服务器之间,代理服务器接收到客户端请求后通过判断后转发到后端数据库,有以下代表程序
1、MySql-Proxy 、MySql-Proxy为MySQL开源项目,通过其自带的lua脚本进行判断
2、Atlas 是由奇虎360的web平台部基础架构团队开发维护的一个基于mysql协议的数据中间层项目,它是在mysql-proxy0.8.2版本的基础上。对于进行了优化,增加了一些新的功能特性,360内部使用atlas运行mysql业务,每条承受的读写请求数达几十亿条,支持事务以及存储过程。
3、Amoeba。 由陈思儒开发,作者曾就职于阿里巴巴,该程序由java语言进行开发,阿里巴巴将其应用于生产环境,但它不支持事务和存储过程。
Amoeba:是一个以mysql为底层的数据存储,并对应提供mysql协议接口的proxy(代理),外号变形虫。
-
读取请求发送给从服务器是采用轮询调度算法。
-
amoeba使用的java语言编写,配置文件为xml
-
amoeba主要负责对外的一个代理ip
-
访问这个ip时,发送的请求为“写”请求,则会转给主服务器。
-
当发送的请求为“读”时,会通过调度转发给从服务器,使用轮询算法,轮流分配给两台从服务器。
-
amoeba可以视为调度器,如果主服务器挂掉(单点故障),则会有HMA解决这个问题。
四、读写分离实验
做读写分离必须要做好主从复制的的环境,因为读写分离是基于主从复制的基础上去执行的架构
1、前期环境
主机 | ip |
---|---|
主服务器 | 192.168.248.101 |
从服务器1 | 192.168.248.10 |
从服务器2 | 192.168.248.104 |
Amoeba | 192.168.248.102 |
客户端 | 192.168.248.105 |
因为前面的主服务器和两台从服务器在前面主从复制的时候,已经部署好了,现在进行部署Amoeba代理服务器。
2、Amoeba服务搭建
关闭防火墙
2.1 JDK环境安装
Amoeba服务时基于jdk1.5开发的,所有要使用jdk1.5或jdk1.6的版本,不建议使用高版本
cp jdk-6u14-linux-x64.bin /usr/local
#将jdk安装包复制到/usr/local目录下
cd /usr/local/
#进入local目录
chmod +x jdk-6u14-linux-x64.bin
#给安装包执行文件
./jdk-6u14-linux-64.bin
#安装jdk(按空格到最后一行,输入yes按回车)
mv jdk1.6.0_14 jdk1.6
#安装好之后在本地目录下生成jdk1.6.0_14目录,将其该名,方便后续操作
vim /etc/profile #编辑全局配置文件
export JAVA_HOME=/usr/local/jdk1.6 #输出定义java的工作目录
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib #输出指定的java类文件
export PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin/:$PATH:$HOME/bin #将java加入工作环境
export AMOEBA_HOME=/usr/local/amoeba #输出定义的amoeba工作目录
export PATH=$PATH:$AMOEBA_HOME/bin #加入路径环境变量
source /etc/profile
#执行群居配置文件
java -version
#查看java版本信息
2.2 将三台mysql主从服务器设置权限
因为amoeba需要登录到三台mysql服务器进行读写,所以需要在三台服务器上进行授权。
grant all on *.* to 'amoeba'@'192.168.248.%' identified by 'abc123';
2.3 安装amoeba安装包
mkdir /usr/local/amoeba
#创建amoeba的安装目录
tar zxvf /opt/amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba
#将amoeba的安装包解压到/usr/local/amoeba目录中
chmod -R 775 /usr/local/amoeba
#给amoeba目录所有的权限
/usr/local/amoeba/bin/amoeba
#开启amoeba(如果显示amoeba start |stop,则说明完成)
2.3 修改主配置文件-amoeba.xml
cd /usr/local/amoeba/conf
#进入配置文件
cp amoeba.xml amoeba.xml.bak
#备份实现读写分离的文件
vim amoeba.xml #进行修改配置(全局配置文件信息)
30行 <property name="user">amoeba</property>
#客户端访问amoeba使用的账号
32行 <property name="password">abc123</property>
#这里是数据库访问amoeba服务器时使用账号时登录的密码
115行 <property name="defaultPool">master</property>
#修改默认池
118行 <property name="writePool">master</property>
#设置数据库写的池
129行 <property name="readPool">slaves</property>
#设置数据库读的池
--------------------------------------------------------------
小结:amoeba.xml定义的是
用户通过amoeba访问数据库时“登录amoeba代理的账户,密码”。
定义amoeba代理的“读池”和“写池”的名称(读是:slaves,写是:master)
#注意:这是第一个账户:定义的是client登录使用amoeba
2.4 修改数据库配置文件-dbServers.xml
cp dbServers.xml dbServer.xml.bak
#备份数据库配置文件
vim dbServers.xml
#23行 作用:注释!默认进入test库 以防mysql中没有test库时,会报错
<!-- mysql schema
<property name="schema">test</property>
-->
#26修改 作用:访问mysql的账号
<!-- mysql user -->
<property name="user">amoeba</property>
#28-30去掉注释 作用:访问mysql的密码
<property name="password">abc123</property>
#45修改,设置主服务器的名Master,作用:后端数据的一个节点名称
<dbServer name="master" parent="abstractServer">
#48修改,设置主服务器的地址
<property name="ipAddress">192.168.248.101</property>
#52修改,设置从服务器1的名slave1
<dbServer name="slave1" parent="abstractServer">
#55修改,设置从服务器1的地址
<property name="ipAddress">192.168.248.10</property>
#58 复制上面6行粘贴(52开始复制),设置从服务器2的名slave2和地址
<dbServer name="slave2" parent="abstractServer">
<property name="ipAddress">192.168.248.104</property>
#65修改,作用:定义从服务器的池,因为有多个从服务器,主服务器不用,因为只有一个
<dbServer name="slaves" virtual="true">
cp
#71修改,作用:定义具体的从服务器的地址池的名称,跟52和58行要一致
<property name="poolNames">slave1,slave2</property>
#67行 ,作用,定义了三种不同的分流模式,68行按序号选择模式
1、轮序模式,2、提权模式,3、高可用模式
----------------------------------------------------------------------
#小结:dbServers.xml 主要定义了:
amoeba访问mysql数据库的用户和密码
定义了后端的mysql服务器具有的角色及其地址
定义了read poll读池有哪些。
2.5 启动amoeba服务
/usr/local/amoeba/bin/amoeba start &
netstart -natp |grep java
netstart -natp |grep 8066
3、测试验证
systemctl stop firewalld
setenforce 0
yum -y install mariadb
#下载数据库(centos7 默认的数据库)
mysql -u amoeba -p123123 -h 192.168.248.102 -P 8066
#登录到amoeba服务器,-h:指定ip,-P:指定端口(下面图片,因为我改密码了。)
3.1 验证写入是否从master主机写入
#验证的目结果:主要为了验证从客户端登录可以进行可以写入数据到数据库中,而且是通过master服务器写入的。
在客户端登录到amoeba代理服务器上,进行创建一个表。
去master和两台slave上查看是否可以看到创建的表
3.2 测试是否读写分离
测试目的结果:主要验证写是靠matser写入数据,而读取数据时靠两台从服务器(slave)进行读取
先关闭两台slave的主从同步
在客户端上进行插入一条数据到ydq的用户
去master主机上查看数据是否写入成功
去两台slave从服务器查看数据,查看不到
且在客户端上进行登录也查看不到数据
3.3 测试读的时候,是否是以轮询方法
验证目的结果:验证在读取数据库内容时,以轮询的方式读取数据库中的内容。
五、总结
1、主从复制
主从复制,简单理解就是2个日志文件,三个线程。
两日志
- 二进制文件: 记录数据库变动的信息(语句、变动记录)
- 中继日志文件: 用于临时存放二进制文件内容。
三线程
-
dump线程: ①监听I/O线程请求。②将二进制日志文件更新的数据发送给slave的I/O线程。
-
I/O线程: ①监听master主机的二进制文件。②向master的dump线程发出同步请求
-
SQL线程: 读取中继日志中的文件,更新到本机的数据库。
2、读写分离
读写分离,简单来说,就是基于主从复制来进行读和写的操作,但是读和写是分开来的,读是在slave服务器上,写是在master服务器上,这样做的 目的可以很好的缓解master的压力,而且在生产环境中,读的频率要搞,所以salva服务器可以设置多套服务器,使用轮询,权重、哈希的分流策略进行分摊压力