MySQL主从复制+读写分离详细方案

news2024/10/2 3:29:09

MySQL主从复制+读写分离详细方案

  • 一、MySQL主从复制
    • 1.1mysql的复制类型
    • 1.2mysql主从复制的工作过程
    • 1.3MySQL的四种同步方式
      • 1.3.1异步复制(Async Replication)
      • 1.3.2同步复制(Sync Replication)
      • 1.3.3半同步复制(Semi-Sync Replication)
      • 1.3.4增强半同步复制(lossless Semi-Sync Replication、无损复制)
    • 1.4MySQL集群和主从复制分别适合什么场景下使用
    • 1.5为什么使用主从复制,读写分离
    • 1.6用途及条件
    • 1.7MYSQL主从复制存在的问题
    • 1.8MySQL主从复制延迟
  • 二、MySQL读写分离
    • 2.1什么是读写分离
      • 2.1.1读写分离基本原理
      • 2.1.2mysql读写分离原理
    • 2.2为什么要读写分离
    • 2.3什么时候要读写分离
    • 2.4主从复制与读写分离
    • 2.5MySQL读写分离的俩种实现方式
      • 2.5.1基于程序代码内部实现
      • 2.5.2基于中间代理层实现
  • 三、MySQL主从复制和读写分离实验部署
    • 3.1环境配置
    • 3.2初始环境准备
    • 3.3搭建MySQL主从复制
      • 3.3.1搭建时间同步(主服务器:192.168.145.10)
      • 3.3.2搭建时间同步(从服务器:192.168.145.21、192.168.145.12)
      • 3.3.3配置主服务器(192.168.145.10)
      • 3.3.4配置从服务器(192.168.145 .21/192.168.145.12)
      • 3.3.5验证主从同步
    • 3.4搭建MySQL读写分离
      • 3.4.1安装java环境
      • 3.4.2配置amoeba
      • 3.4.3配置amoeba读写分离
      • 3.4.4进行主从复制测试
      • 3.4.5进行读写分离测试
  • 四、总结

image-20200812132737977

正常情况下,只要当单机真的顶不住压力了才会集群,不要一上来就集群,没这个必要。有关于软件的东西都是越简单越好,复杂都是形势所迫。

一般是先优化,优化一些慢查询,优化业务逻辑的调用或者加入缓存等,如果真的优化到没东西优化了然后才上集群,先读写分离,读写分离之后顶不住就再分库分表

一、MySQL主从复制

1.1mysql的复制类型

基于语句的复制(STATEMENT,mysql默认类型):在主服务器上执行的 SQL 语句,在从服务器上执行同样的语句。MySQL 默认采用基于语句的复制,效率比较高

基于行的复制(ROW):把改变的内容复制过去,而不是把命令在从服务器上执行一遍

混合类型的复制(MIXED):默认采用基于语句的复制,一旦发现基于语句无法精确复制时,就会采用基于行的复制

1.2mysql主从复制的工作过程

image-20230223153753599

两日志: 二进制日志和中继日志

三线程: master的dump和slave的I/O、sql

dump Thread: 为每个Slave的I/O Thread启动一个dump线程,用于向其发送binary log events

I/O Thread: 向Master请求二进制日志事件,并保存于中继日志中

SQL Thread: 从中继日志中读取日志事件,在本地完成重放

工作过程:

两种说法:

首先client端(tomcat)将数据写入到master节点的数据库中,master节点会通知存储引擎提交事务,同时会将数据以(基于行、基于sql、基于混合)的方式保存在二进制日志钟

SLAVE节点会开启I/O线程,用于监听master的二进制日志的更新,一旦发生更新内容,则向master的dump线程发出同步请求

master的dump线程在接收到SLAVE的I/O请求后,会读取二进制文件中更新的数据,并发送给SLAVE的I/O线程

SLAVE的I/O线程接收到数据后,会保存在SLAVE节点的中继日志中

同时,SLAVE节点钟的SQL线程,会读取中继日志钟的熟,更新在本地的mysql数据库中

最终,完成slave——>复制master数据,达到主从同步的效果

或者

(1)Master节点将数据的改变记录成二进制日志(bin log),当Master上的数据发生改变时,则将其改变写入二进制日志中

(2)Slave节点会在一定时间间隔内对Master的二进制日志进行探测其是否发生改变,如果发生改变,则开始一个I/O线程请求 Master的二进制事件

(3)同时Master节点为每个I/O线程启动一个dump线程,用于向其发送二进制事件,并保存至Slave节点本地的中继日志(Relay log)中

(4)Slave节点将启动SQL线程从中继日志中读取二进制日志,在本地存放,即解析成 sql 语句逐一执行,使得其数据和 Master节点的保持一致,最后I/O线程和SQL线程将进入睡眠状态,等待下一次被唤醒

注意:

中继日志通常会位于 OS 缓存中,所以中继日志的开销很小

复制过程有一个很重要的限制,即复制在slave上是串行化的,也就是说Master上的并行更新操作不能在slave上并行操作

1.3MySQL的四种同步方式

MySQL有四种同步方式:

1、异步复制(Async Replication)

2、同步复制(sync Replication)

3、半同步复制(Async Replication)

4、增强半同步复制(lossless Semi-Sync Replication)、无损复制

1.3.1异步复制(Async Replication)

主库将更新写入Binlog日志文件后,不需要等待数据更新是否已经复制到从库中,就可以继续处理更多的请求。Master将事件写入binlog,但并不知道Slave是否或何时已经接收且已处理。在异步复制的机制的情况下,如果Master宕机,事务在Master上已提交,但很可能这些事务没有传到任何的Slave上。假设有Master->Salve故障转移的机制,此时Slave也可能会丢失事务。MySQL复制默认是异步复制,异步复制提供了最佳性能。

1.3.2同步复制(Sync Replication)

主库将更新写入Binlog日志文件后,需要等待数据更新已经复制到从库中,并且已经在从库执行成功,然后才能返回继续处理其它的请求。同步复制提供了最佳安全性,保证数据安全,数据不会丢失,但对性能有一定的影响。

1.3.3半同步复制(Semi-Sync Replication)

主库提交更新写入二进制日志文件后,等待数据更新写入了从服务器中继日志中,然后才能再继续处理其它请求。该功能确保至少有1个从库接收完主库传递过来的binlog内容已经写入到自己的relay log里面了,才会通知主库上面的等待线程,该操作完毕。

半同步复制,是最佳安全性与最佳性能之间的一个折中。

MySQL 5.5版本之后引入了半同步复制功能,主从服务器必须安装半同步复制插件,才能开启该复制功能。如果等待超时,超过rpl_semi_sync_master_timeout参数设置时间(默认值为10000,表示10秒),则关闭半同步复制,并自动转换为异步复制模式。当master dump线程发送完一个事务的所有事件之后,如果在rpl_semi_sync_master_timeout内,收到了从库的响应,则主从又重新恢复为增强半同步复制。

ACK (Acknowledge character)即是确认字符。

1.3.4增强半同步复制(lossless Semi-Sync Replication、无损复制)

增强半同步是在MySQL 5.7引入,其实半同步可以看成是一个过渡功能,因为默认的配置就是增强半同步,所以,大家一般说的半同步复制其实就是增强的半同步复制,也就是无损复制。

增强半同步和半同步不同的是,等待ACK时间不同

rpl_semi_sync_master_wait_point = AFTER_SYNC(默认)

半同步的问题是因为等待ACK的点是Commit之后,此时Master已经完成数据变更,用户已经可以看到最新数据,当Binlog还未同步到Slave时,发生主从切换,那么此时从库是没有这个最新数据的,用户看到的是老数据。

增强半同步将等待ACK的点放在提交Commit之前,此时数据还未被提交,外界看不到数据变更,此时如果发送主从切换,新库依然还是老数据,不存在数据不一致的问题

1.4MySQL集群和主从复制分别适合什么场景下使用

集群和主从复制是为了应对高并发、大访问量的情况,如果网站访问量和并发量太大了,少量的数据库服务器是处理不过来的,会造成网站访问慢,数据写入会造成数据表或记录被锁住,锁住的意思就是其他访问线程暂时不能读写要等写入完成才能继续,这样会影响其他用户读取速度,采用主从复制可以让一些服务器专门读,一些专门写可以解决这个问题

1.5为什么使用主从复制,读写分离

主从复制、读写分离一般是一起使用的,目的很简单,就是为了提高数据库的并发性能。你想,假设是单机,读写都在一台MySQL上面完成,性能肯定不高。如果有三台MySQL,一台mater只负责写操作,两台salve只负责读操作,性能不就能大大提高了吗?

所以主从复制、读写分离就是为了数据库能支持更大的并发

随着业务量的扩展、如果是单机部署的MySQL,会导致I/O频率过高。采用主从复制、读写分离可以提高数据库的可用性

1.6用途及条件

(1)MYSQL主从复制用途:

实时灾备,用于故障切换

读写分离,提供查询服务

备份,避免影响服务

(2)必要条件

主库开启binlog日志

主从server-id不同

从库服务器能够连通主库

1.7MYSQL主从复制存在的问题

①主库宕机后,数据可能丢失

②从库只有一个SQL Thread,主库写压力大,复制很可能延时

解决办法:

半同步复制——解决数据丢失的问题

并行复制——解决从库复制延迟的问题

1.8MySQL主从复制延迟

(1)master服务器高并发,形成大量事务

(2)网络延迟

(3)主从硬件设备导致——cpu主频、内存io、硬盘io

(4)本来就不是同步复制、而是异步复制

从库优化Mysql参数。比如增大innodb_buffer_pool_size,让更多操作在Mysql内存中完成,减少磁盘操作

从库使用高性能主机,包括cpu强悍、内存加大。避免使用虚拟云主机,使用物理主机,这样提升了i/o方面性

从库使用SSD磁盘

网络优化,避免跨机房实现同步

二、MySQL读写分离

扩展阅读:

使用Sharding-JDBC 实现Mysql读写分离:https://developer.aliyun.com/article/1136722

Centos 7使用MyCat搭建 MySQL-读写分离:https://developer.aliyun.com/article/1143556

2.1什么是读写分离

2.1.1读写分离基本原理

读写分离,基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作

数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库

2.1.2mysql读写分离原理

读写分离就是只在主服务器上写,只在从服务器上读。基本的原理是让主数据库处理事务性操作,而从数据库处理 select 查询。数据库复制被用来把主数据库上事务性操作导致的变更同步到集群中的从数据库

2.2为什么要读写分离

因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的

但是数据库的“读”(读10000条数据可能只要5秒钟)

所以读写分离,解决的是,数据库的写入,影响了查询的效率

2.3什么时候要读写分离

(1)数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用。

(2)利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能

2.4主从复制与读写分离

在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。

有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制是对数据库中的数据、语句做备份

2.5MySQL读写分离的俩种实现方式

目前较为常见的mysql读写分离分为以下俩种:

2.5.1基于程序代码内部实现

在代码中根据 select、insert 进行路由分类,这类方法也是目前生产环境应用最广泛的。

优点是性能较好,因为在程序代码中实现,不需要增加额外的设备为硬件开支;缺点是需要开发人员来实现,运维人员无从下手。

但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型复杂的Java应用,如果在程序代码中实现读写分离对代码改动就较大。

2.5.2基于中间代理层实现

代理一般位于客户端和服务器之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序

(1)MySQL-Proxy:MySQL-Proxy 为 MySQL 开源项目,通过其自带的 lua 脚本进行SQL 判断。

(2)Atlas:是由奇虎360的Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目。它是在mysql-proxy 0.8.2版本的基础上,对其进行了优化,增加了一些新的功能特性。360内部使用Atlas运行的mysql业务,每天承载的读写请求数达几十亿条。支持事物以及存储过程。

(3)Amoeba:由陈思儒开发,作者曾就职于阿里巴巴。该程序由Java语言进行开发,阿里巴巴将其用于生产环境。但是它不支持事务和存储过程。

注:由于使用MySQL Proxy 需要写大量的Lua脚本,这些Lua并不是现成的,而是需要自己去写。这对于并不熟悉MySQL Proxy 内置变量和MySQL Protocol 的人来说是非常困难的。Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库的代理层

三、MySQL主从复制和读写分离实验部署

3.1环境配置

服务器系统IP地址安装包或软件
MasterCentOS 7192.168.145.10ntp, mysql-boost-5.7.20.tar.gz
Slave 1CentOS 7192.168.145.21ntp,ntpdate,mysql-boost-5.7.20.tar.gz
Slave 2CentOS 7192.168.145.12ntp,ntpdate, mysql-boost-5.7.20.tar.gz
AmoebaCentOS 7192.168.121.22jdk-6u14-linux-x64.bin、amoeba-mysql-binary-2.2.0.tar.gz
客户端CentOS7192.168.121.55Mariadb

3.2初始环境准备

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

3.3搭建MySQL主从复制

image-20230223154017562

3.3.1搭建时间同步(主服务器:192.168.145.10)

主mysql服务器192.168.145.10上的配置

总体操作:

1.#安装时间同步服务器
yum install ntp -y
 
2.#修改配置文件
vim /etc/ntp.conf  
server 127.127.137.0   #设置本地时钟源
fudge 127.127.137.0 stratum 8  #设置时间层级为8 限制在15 以内
 
3.#开启服务
service ntpd start
安装时间同步服务器

分部演示:

①安装时间同步服务器

#安装时间同步服务器
yum install ntp -y

image-20230223154108789

②修改配置文件

#修改配置文件
vim /etc/ntp.conf  
server 127.127.137.0   #设置本地时钟源
fudge 127.127.137.0 stratum 8  #设置时间层级为8 限制在15 以内

image-20230223154143317

④开启服务

#开启服务
service ntpd start

image-20230223154159087

3.3.2搭建时间同步(从服务器:192.168.145.21、192.168.145.12)

总体操作:

1.#安装时间同步服务器、同步服务
yum install ntp -y
yum install ntpdate -y
 
2. #开启服务
service ntpd start
 
3. #执行同步
/usr/sbin/ntpdate 192.168.145.10
 
4.#计划定时任务
crontab -e
*/30 * * * *  /usr/sbin/ntpdate 192.168.145.10
 
###########slave2:192.168.145.12与以上操作相同######

分部演示:

从mysql服务器192.168.145.21上的配置

①安装时间同步服务器、同步服务

#安装时间同步服务器、同步服务
yum install ntp -y
yum install ntpdate -y

image-20230223154254426

②开启服务

#开启服务
service ntpd start

image-20230223154325643

③执行同步

#执行同步
/usr/sbin/ntpdate 192.168.145.10

image-20230223154345396

④计划定时任务

计划定时任务
crontab -e
*/30 * * * *  /usr/sbin/ntpdate 192.168.145.10

image-20230223154416779

从mysql服务器192168.145.12上的配置(与上文配置相同)

①安装时间同步服务器、同步服务

#安装时间同步服务器、同步服务
yum install ntp -y
yum install ntpdate -y

②开启服务

#开启服务
service ntpd start

③执行同步

#执行同步
/usr/sbin/ntpdate 192.168.137.20

④计划定时任务

#计划定时任务
crontab -e
*/30 * * * *  /usr/sbin/ntpdate 192.168.145.10

3.3.3配置主服务器(192.168.145.10)

总体操作:

1. #开启二进制日志
vim /etc/my.cnf
 
log-bin=master-bin        #开启二进制日志
binlog_format=MIXED       #二进制日志格式
log-slave-updates=true    #开启从服务器同步
 
2. #重启服务
systemctl restart mysqld.service 
 
3. #登入mysql,给从服务器在网段授权
mysql -uroot -p123456
grant replication slave on *.* to 'myslave'@'192.168.145.%' identified by '123456';

#刷新数据库
flush privileges;

#查看主服务器二进制文件
show master status;

分部演示:

①开启二进制日志

#开启二进制日志
vim /etc/my.cnf
 
server-id = 1             #修改server-id,主从服务器的server-id都不能重复
log-bin=master-bin        #开启二进制日志
binlog_format=MIXED       #二进制日志格式为MIXED
log-slave-updates=true    #开启从服务器同步

image-20230223154536462

②重启服务

systemctl restart mysqld.service

③登入mysql,给从服务器在网段授权

mysql -uroot -p123456
GRANT REPLICATION SLAVE ON *.* TO 'myslave'@'192.168.145.%' IDENTIFIED BY '123456';     #给从服务器授权
flush privileges; #刷新数据库
show master status; #查看主服务器二进制文件

image-20230223154612671

3.3.4配置从服务器(192.168.145 .21/192.168.145.12)

总体操作:

1.#开启二进制日志
vim /etc/my.cnf
server-id = 2 #slave1和slave2的id不能相同,我slave2设置的3
relay-log=relay-log-bin
relay-log-index=slave-relay-bin.index
relay_log_recovery = 1
 
2.#重启服务
systemctl restart mysqld.service 
 
3. #登入mysql,配置同步注意master_log_file和master_log_pos的值要和master查询的一致
mysql -uroot -p123456
change master to master_host='192.168.137.20',master_user='myslave',master_password='123456',master_log_file='master-bin.000003',master_log_pos=604;
 
4.#启动同步,如果报错,执行restart slave试试
start slave;
show slave status\G;
##以下两个必须要是YES
#Slave_IO_Running: Yes
#Slave_SQL_Running: Yes
 

分部演示:

#########slave2:192.168.145.21与以上操作相同######

从mysql服务器192168.145.21上的配置

①开启二进制日志

vim /etc/my.cnf
server-id = 2                       #修改,注意id与Master的不同,两个Slave的id也要不同
relay-log=relay-log-bin                     #添加,开启中继日志,从主服务器上同步日志文件记录到本地
relay-log-index=slave-relay-bin.index       #添加,定义中继日志文件的位置和名称
relay_log_recovery = 1                      #选配项
#当 slave 从库宕机后,假如 relay-log 损坏了,导致一部分中继日志没有处理,则自动放弃所有未执行的 relay-log,并且重新从 master 上获取日志,这样就保证了relay-log 的完整性。默认情况下该功能是关闭的,将 relay_log_recovery 的值设置为 1 时, 可在 slave 从库上开启该功能,建议开启

image-20230223154711309

②重启服务

systemctl restart mysqld.service

③登入mysql,配置同步注意master_log_file和master_log_pos的值要和master查询的一致

mysql -u root -p

mysql -u root -p
change master to master_host='192.168.145.10',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=756;
#配置同步,注意 master_log_file 和 master_log_pos 的值要与Master查询的一致,这里的是例子,每个人的都不一样

image-20230223155057278

④启动同步

start slave;      #启动同步,如有报错执行 reset slave;
show slave status\G     #查看 Slave 状态
//确保 IO 和 SQL 线程都是 Yes,代表同步正常。
Slave_IO_Running: Yes    #负责与主机的io通信
Slave_SQL_Running: Yes    #负责自己的slave mysql进程

image-20230223155109605

一般 Slave_IO_Running: Connecting/No 的可能性:

1、网络不通

2、my.cnf配置有问题

3、密码、file文件名、pos偏移量不对

4、防火墙没有关闭

从mysql服务器192168.137.10上的配置

①开启二进制日志

vim /etc/my.cnf
server-id = 3 #slave1和slave2的id不能相同,我slave2设置的3
relay-log=relay-log-bin
relay-log-index=slave-relay-bin.index
relay_log_recovery = 1

②重启服务

systemctl restart mysqld.service

③登入mysql,配置同步注意master_log_file和master_log_pos的值要和master查询的一致

mysql -u root -p
change master to master_host='192.168.137.20',master_user='myslave',master_password='123456',master_log_file='master-bin.000003',master_log_pos=604;
#配置同步,注意 master_log_file 和 master_log_pos 的值要与Master查询的一致,这里的是例子,每个人的都不一样

④启动同步

start slave;                        #启动同步,如有报错执行 reset slave;
show slave status\G                 #查看 Slave 状态
//确保 IO 和 SQL 线程都是 Yes,代表同步正常。
Slave_IO_Running: Yes               #负责与主机的io通信
Slave_SQL_Running: Yes              #负责自己的slave mysql进程

3.3.5验证主从同步

#在主服务器上创建一个库
create database ceshi;

image-20230223155811178

#在从服务器上查看
show databases;

image-20230223155826595

注:如果需要新加入从服务器,需要先锁住主服务器(防止别人写入数据造成数据丢失),然后将主服务器的数据全部备份到新的从服务器上,然后在新添加的从服务器上 master_log_file 和 master_log_pos 的值是最新的。

锁库
flush tables with read lock;
解锁
unlock tables;

3.4搭建MySQL读写分离

3.4.1安装java环境

总体操作:

################安装 Java 环境(以jdk1.6为例)###############
1.#下载安装包:jdk-6u14-linux-x64.bin、amoeba-mysql-binary-2.2.0.tar.gz 
cd /opt
 
2.#把jdk复制到/usr/local下
cp jdk-6u14-linux-x64.bin /usr/local/
 
3.#赋予jdk权限并执行
chmod +x /usr/local/jdk-6u14-linux-x64.bin
cd /usr/local/
./jdk-6u14-linux-x64.bin  #一路回车到底,最后输入yes 自动安装
 
4.#jdk改个名字
mv jdk1.6.0_14/ jdk1.6
 
5.#配置环境并刷新
vim /etc/profile
export JAVA_HOME=/usr/local/jdk1.6
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin/:$PATH:$HOME/bin
export AMOEBA_HOME=/usr/local/amoeba
export PATH=$PATH:$AMOEBA_HOME/bin
 
source /etc/profile      #刷新配置文件
java -version

分部演示:

①下载 安装包

image-20230223160035044

②把jdk复制到/usr/local下

cp jdk-6u14-linux-x64.bin /usr/local/

③赋予jdk权限并执行

chmod +x /usr/local/jdk-6u14-linux-x64.bin
cd /usr/local/
./jdk-6u14-linux-x64.bin  #一路回车到底,最后输入yes 自动安装

image-20230223160246554

④把jdk改个名字

mv jdk1.6.0_14/ jdk1.6

image-20230223160311207

⑤配置环境并刷新

配置环境并刷新
vim /etc/profile
export JAVA_HOME=/usr/local/jdk1.6
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin/:$PATH:$HOME/bin
export AMOEBA_HOME=/usr/local/amoeba
export PATH=$PATH:$AMOEBA_HOME/bin
 
source /etc/profile      #刷新配置文件
java -version #查看版本

image-20230223160331149

3.4.2配置amoeba

总体操作:

############## 安装amoeba ###########
1.#在/usr/local目录下创建amoeba目录
mkdir /usr/local/amoeba
2.#切换至opt解压amoeba
cd /opt/
tar zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba
cd /usr/local/ 切换至目录查看
3.#给目录/usr/local/amoeba赋予执行权限
chmod -R 755 /usr/local/amoeba/
4.#运行amoeba
/usr/local/amoeba/bin/amoeba

分部演示:

①在/usr/local目录下创建amoeba目录并解压amoeba

mkdir /usr/local/amoeba

②切换至opt解压amoeba

cd /opt/
tar zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba
cd /usr/local/ 切换至目录查看

image-20230223160439347

③给目录/usr/local/amoeba赋予执行权限并运行amoeba

#给目录/usr/local/amoeba赋予执行权限
chmod -R 755 /usr/local/amoeba/
#运行amoeba
/usr/local/amoeba/bin/amoeba
# 显示amoeba start|stop就算是成功了

image-20230223160454387

3.4.3配置amoeba读写分离

总体操作:

###########配置 Amoeba读写分离 ####
1.#先在Master、slave1、slave2mysql上开放权限给 Amoeba 访问
grant all on *.* to test@'192.168.145.%' identified by '123456';
flush privileges;
 
2.#备份amoeba配置
cd /usr/local/amoeba/conf/
cp amoeba.xml amoeba.xml.bak
cp dbserver.dtd dbserver.dtd.bak
 
3.#修改amoeba配置
vim amoeba.xml
30 <property name="user">amoeba</property>
#设置登录用户名
32<property name="password">123456</property>
#设置密码
 
115<property name="defaultPool">master</property>
#设置默认池为master
118<property name="writePool">master</property>
#设置写池
119<property name="readPool">slaves</property>
#设置读池
 
vim dbServers.xml 
23 <!-- <property name="schema">test</property> -->
#23行注释
26<property name="user">test</property>
#设置登录用户
28 <!--  mysql password -->
#删除
29<property name="password">123456</property>
#解决28注释,添加密码
 
45<dbServer name="master"  parent="abstractServer">
#服务池名
48<property name="ipAddress">192.168.145.10</property>
#添加地址
 
52<dbServer name="slave1"  parent="abstractServer">
55<property name="ipAddress">192.168.145.21</property>
复制6行 添加另一从节点
59<dbServer name="slave2"  parent="abstractServer">
62<property name="ipAddress">192.168.145.12</property>
 
66<dbServer name="slaves" virtual="true">
#定义池名
72<property name="poolNames">slave1,slave2</property>
#写上从节点名
 
4.#启动amoeba,并测试
amoeba start
netstat -ntap |grep java

image-20230223160512040

分部演示:

①先在master、slave1、slave2的mysql上开放权限给amoeba访问

grant all on *.* to test@'192.168.145.%' identified by '123456';
flush privileges;

②备份amoeba配置

cd /usr/local/amoeba/conf/
cp amoeba.xml amoeba.xml.bak
cp dbserver.dtd dbserver.dtd.bak

③修改amoeba配置

vim amoeba.xml
30 <property name="user">amoeba</property>
#设置登录用户名
32<property name="password">123456</property>
#设置密码
115<property name="defaultPool">master</property>
#设置默认池为master
118<property name="writePool">master</property>
#设置写池
119<property name="readPool">slaves</property>
#设置读池
vim dbServers.xml 
23 <!-- <property name="schema">test</property> -->
#23行注释
26<property name="user">test</property>
#设置登录用户
28 <!--  mysql password -->
#删除
29<property name="password">123456</property>
#解决28注释,添加密码
45<dbServer name="master"  parent="abstractServer">
#服务池名
48<property name="ipAddress">192.168.137.20</property>
#添加地址
52<dbServer name="slave1"  parent="abstractServer">
55<property name="ipAddress">192.168.137.15</property>
复制6行 添加另一从节点
59<dbServer name="slave2"  parent="abstractServer">
62<property name="ipAddress">192.168.137.10</property>
66<dbServer name="slaves" virtual="true">
#定义池名
72<property name="poolNames">slave1,slave2</property>
#写上从节点名

image-20230223160625748

④启动amoeba,并测试

amoeba start
或
/usr/local/amoeba/bin/amoeba start &
netstat -ntap |grep java

image-20230223160644172

3.4.4进行主从复制测试

①这边就把amoeba机器当成客户机进行测试(也可以使用另一台机器当客户端)

yum install mariadb mariadb-server.x86_64 -y

image-20230223160708858

②登入并查看数据库

mysql -uamoeba -p123456 -h 192.168.145.11 -P8066

image-20230223160728127

③测试同步

#在主服务器服务器上新建表
use class;
create table test(id int(10),name char(40));
show tables;
#在客户机上,插入数据会同步到所有数据库中
 use class;
 insert intotest values(3,'ll');

image-20230223160739948

④在从服务器上查看

image-20230223160811897

3.4.5进行读写分离测试

①两台从服务器上

stop slave;     #关闭同步

image-20230223160910298

#在主服务器 上
insert into test values('4','开');
#在slave1上
insert into test values('2','始');
#在slave2上
insert into test values('3','le');

image-20230223160920909

四、总结

mysql的主从复制原理和读写分离的原理;

MySQL有四种同步方式:异步复制(Async Replication)、同步复制(sync Replication)、半同步复制(Async Replication)、增强半同步复制(lossless Semi-Sync Replication);

MySQL读写分离的俩种实现方式:基于程序代码内部实现、基于中间代理层实现。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/380460.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

2023上半年软考中/高级报名+学习备考+考试重点

软考是全国计算机技术与软件专业技术资格&#xff08;水平&#xff09;考试&#xff08;简称软考&#xff09;项目&#xff0c;是由国家人力资源和社会保障部、工业和信息化部共同组织的国家级考试&#xff0c;既属于国家职业资格考试&#xff0c;又是职称资格考试。 系统集成…

CentOS7.6快速安装Docker

快速安装 官网安装参考手册&#xff1a;https://docs.docker.com/install/linux/docker-ce/centos/ 确定你是CentOS7及以上版本,yum是在线安装! [rootVM-4-5-centos ~]# cat /etc/redhat-releaseCentOS Linux release 7.6.1810 (Core)接下来您只管自上向下执行命令即可&#x…

阿里云服务器ECS适用于哪些应用场景?

云服务器ECS具有广泛的应用场景&#xff0c;既可以作为Web服务器或者应用服务器单独使用&#xff0c;又可以与其他阿里云服务集成提供丰富的解决方案。 云服务器ECS的典型应用场景包括但不限于本文描述&#xff0c;您可以在使用云服务器ECS的同时发现云计算带来的技术红利。 阿…

【项目】实现对接京东财务余额管理页面

目录需求实现后端京东财务余额Controller京东财务余额Service前端index.vuejdbalance.jsapi/jdbalance.js效果需求 通过调京东财务余额接口&#xff0c;在项目中开发相应管理页面。 实现 后端 因为京东的接口返回值里面已经有分页的参数了&#xff0c;因此会和平常自己写分…

【竞赛/TPU】算能TPU编程竞赛总结

如果觉得我的分享有一定帮助&#xff0c;欢迎关注我的微信公众号 “码农的科研笔记”&#xff0c;了解更多我的算法和代码学习总结记录。或者点击链接扫码关注【竞赛/TPU】算能TPU编程竞赛总结 1 基础知识 1.1【Ubuntu】 Ubuntu操作系统中有很多不同的文件夹&#xff0c;每个…

论文阅读——FECANet:应用特征增强的上下文感知小样本语义分割网络

代码&#xff1a;NUST-Machine-Intelligence-Laboratory/FECANET (github.com) 文章地址&#xff1a;地址 文章名称&#xff1a;FECANet: Boosting Few-Shot Semantic Segmentation with Feature-Enhanced Context-Aware Network 摘要 Few-shot semantic segmentation 是学习…

4年经验之谈,什么是接口测试?怎样做接口测试?

一、什么是接口&#xff1f;【文末学习资源分享】赶紧嫖&#xff01;冲&#xff01;&#xff01;&#xff01;&#xff01; 接口测试主要用于外部系统与系统之间以及内部各个子系统之间的交互点&#xff0c;定义特定的交互点&#xff0c;然后通过这些交互点来&#xff0c;通过…

Nydus 在约苗平台的容器镜像加速实践

文 | 向申 约苗平台运维工程师 关注云原生领域 本文字数 9574阅读时间24分钟 本文是来自向申同学的分享&#xff0c;介绍了其在 K8s 生产环境集群部署 Nydus 的相关实践。 Nydus 是蚂蚁集团&#xff0c;阿里云和字节等共建的开源容器镜像加速项目&#xff0c;是 CNCF Dragon…

Spring Boot 3.0系列【3】基础篇之使用Spring Initializr快速创建项目

有道无术&#xff0c;术尚可求&#xff0c;有术无道&#xff0c;止于术。 本系列Spring Boot版本3.0.3 源码地址&#xff1a;https://gitee.com/pearl-organization/study-spring-boot3 文章目录前言安装JDK 17创建Spring Boot 项目方式1&#xff1a;网页在线生成方式2&#…

PyQGIS开发--自动化地图布局案例

前言创建地图布局是 GIS 作业结束时的一项常见任务。 它用于呈现最终结果的输出&#xff0c;作为与用户交流的一种方式&#xff0c;以便从地图中获取信息、知识或见解。 在包括 QGIS 在内的任何 GIS 软件中制作地图布局都非常容易。 但另一方面&#xff0c;当我们必须生成如此大…

centos7上安装mysql8.0

1、检查一下自己电脑上安装了哪些mysql [rootlocalhost ~]# find / -name mysql 2、把安装的mysql全部删掉 [rootlocalhost ~]# rm -rf /usr/lib64/mysql/ [rootlocalhost ~]# rm -rf /usr/local/mysql/ [rootlocalhost ~]# rm -rf /etc/selinux/targeted/active/modules/100…

《Roller: Fast and Efficient Tensor Compilation for Deep Learning》

《Roller: Fast and Efficient Tensor Compilation for Deep Learning》 用于深度学习 快速高效的张量编译器 作者 微软亚洲研究院以及多伦多大学等多所高校 摘要 当前编译为了产生高效的kernel时&#xff0c;搜索空间大&#xff0c;通常使用机器学习的方法 找到最优的方案…

管理逻辑备数据库(Logical Standby Database)

1. SQL Apply架构概述 SQL Apply使用一组后台进程来应用来自主数据库的更改到逻辑备数据库。 在日志挖掘和应用处理中涉及到的不同的进程和它们的功能如下&#xff1a; 在日志挖掘过程中&#xff1a; 1&#xff09;READER进程从归档redo日志文件或备redo日志文件中读取redo记…

Apache Airflow Provider Sqoop 模块远程代码执行漏洞

漏洞描述 Apache Airflow 是一个以编程方式管理 workflow 的平台&#xff0c;Sqoop 模块用于在 Hadoop 和结构化数据存储&#xff08;例如关系数据库&#xff09;之间高效传输大量数据。 apache-airflow-providers-apache-sqoop 3.1.1 之前版本中&#xff0c;由于 SqoopHook …

【ONE·C || 自定义类型:结构体、段位、枚举、联合】

总言 C语言&#xff1a;自定义类型介绍。 文章目录总言1、结构体1.1、结构体声明1.1.1、基本声明方式1.1.2、特殊的声明&#xff1a;不完全声明1.2、结构体自引用1.2.1、结构体自引用说明1.2.2、typdef对结构体重命名1.3、结构体变量的定义和初始化1.4、结构体变量大小计算&…

VMware虚拟机安装Ubuntu(超详细图文教程)

VMware虚拟机安装Ubuntu&#xff08;超详细图文教程&#xff09; 1、Ubuntu下载 Ubuntu下载地址&#xff1a;点这里 注&#xff1a;但官网下载比较慢 也可关注公众号Time木回复&#xff1a; ubuntu22 获取 2、打开VMware VMware安装过程&#xff1a;待更新 2.1 创建新的虚…

5个面向开发人员的顶级报表工具

报表工具对有处理大量数据需求的公司至关重要。实际上&#xff0c;报表可以帮助公司实时访问公司资源&#xff0c;同时能够以可读和调整的格式分析和显示数据。本文为大家推荐五种成熟且强大的报表工具&#xff0c;重点介绍它们的功能和优势。 Stimulsoft Stimulsoft主要用于…

【安装教程】SSH远程连接工具-FinalShell的安装

&#x1f449;&#x1f449;&#x1f449;&#x1f449;&#x1f449;&#x1f449; 【目录在右侧哦~】省时间可以直接跳转到【安装步骤】 &#x1f449;&#x1f449;&#x1f449;&#x1f449;&#x1f449;&#x1f449;&#x1f449;一、软件介绍&#xff08;点我查看该软…

【python学习笔记】:环境搭建

Python 环境搭建 本章学习如何在本地搭建Python开发环境。 Python可应用于多平台包括 Linux 和 Mac OS X。 你可以通过终端窗口输入 "python" 命令来查看本地是否已经安装Python以及Python的安装版本。 Unix (Solaris, Linux, FreeBSD, AIX, HP/UX, SunOS, IRIX,…

「TCG 规范解读」PC 平台相关规范(3)

可信计算组织&#xff08;Ttrusted Computing Group,TCG&#xff09;是一个非盈利的工业标准组织&#xff0c;它的宗旨是加强在相异计算机平台上的计算环境的安全性。TCG于2003年春成立&#xff0c;并采纳了由可信计算平台联盟&#xff08;the Trusted Computing Platform Alli…