在实际的生产环境中,如果对MySQL数据库的读和写都在一台数据库服务中操作,无论在安全性、高可用性,还是高并发性等各个方面都是完全不能满足实际需求的,一般来说都是通过主从复制(Master-Slave)的方式来同步数据,再通过读写分离来提升数据库的并发负载能力这样的方案进行部署与实施
①Master节点将数据的改变记录成二进制日志(bin log),当Master上的数据发生改变时,则将其改变写入二进制日志中
②Slave节点会在一定时间间隔内对Master的二进制日志进行探测其是否发生改变,如果发生改变,则开始一个I/O线程请求 Master的二进制事件
③同时Master节点为每个I/O线程启动一个dump线程,用于向其发送二进制事件,并保存至Slave节点本地的中继日志(Relay log)中
④Slave节点将启动SQL线程从中继日志中读取二进制日志,在本地重放,即解析成 sql 语句逐一执行,使得其数据和 Master节点的保持一致,最后I/O线程和SQL线程将进入睡眠状态,等待下一次被唤醒
复制过程有一个很重要的限制,即复制在 Slave 上是串行化的,也就是说 Master 上的并行更新操作不能在 Slave 上并行操作
中继日志通常会位于OS缓存中,所以中继日志的开销很小
集群和主从复制是为了应对高并发、大访问量的情况,如果网站访问量和并发量太大了,少量的数据库服务器是处理不过来的,会造成网站访问慢,数据写入会造成数据表或记录被锁住,锁住的意思就是其他访问线程暂时不能读写要等写入完成才能继续,这样会影响其他用户读取速度,采用主从复制可以让一些服务器专门读,一些专门写可以解决这个问题
主从复制、读写分离一般是一起使用的,目的很简单,就是为了提高数据库的并发性能。你想,假设是单机,读写都在一台MySQL上面完成,性能肯定不高。如果有三台MySQL,一台mater只负责写操作,两台salve只负责读操作,性能不就能大大提高了吗?
所以主从复制、读写分离就是为了数据库能支持更大的并发
随着业务量的扩展、如果是单机部署的MySQL,会导致I/O频率过高。采用主从复制、读写分离可以提高数据库的可用性
mysql主从复制用途:
必要条件:
主库宕机后,数据可能丢失
从库只有一个SQL Thread,主库写压力大,复制很可能延时
解决办法
半同步复制——解决数据丢失的问题
并行复制——解决从库复制延迟的问题
①master服务器高并发,形成大量事务
②网络延迟
③主从硬件设备导致——cpu主频、内存io、硬盘io
④本来就不是同步复制、而是异步复制
①只在主服务器上写,只在从服务器上读
②主数据库处理事务性查询,从数据库处理select查询
③数据库复制用于将事务性查询导致的变更同步到集群中的从数据库
代理一般位于客户端和服务器之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序
(1)MySQL-Proxy,MySQL-Proxy 为 MySQL 开源项目,通过其自带的 lua 脚本进行SQL 判断。
(2)Atlas,是由奇虎360的Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目,它是在mysql-proxy 0.8.2版本的基础上,对其进行了优化,增加了一些新的功能特性。360内部使用Atlas运行的mysql业务,每天承载的读写请求数达几十亿条。支持事物以及存储过程
(3)Amoeba,由陈思儒开发,作者曾就职于阿里巴巴。该程序由Java语言进行开发,阿里巴巴将其用于生产环境。但是它不支持事务和存储过程。
- 由于使用MySQL Proxy 需要写大量的Lua脚本,这些Lua并不是现成的,而是需要自己去写,这对于并不熟悉MySQL Proxy 内置变量和MySQL Protocol 的人来说是非常困难的
- Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库的代理层
主机名 | 主机 | 操作系统 | IP 地址 | 主要软件 |
---|---|---|---|---|
CentOS 7-1 | Master | CentOS 7 | 192.168.126.11 | ntp 、 mysql-boost-5.7.17.tar.gz |
CentOS 7-2 | Amoeba | CentOS 7 | 192.168.126.12 | jdk-6u14-linux-x64.bin、amoeba-mysql-binary-2.2.0.tar.gz |
CentOS 7-3 | Slave1 | CentOS 7 | 192.168.126.13 | ntp 、ntpdate 、 mysql-boost-5.7.20.tar.gz |
CengOS 7-4 | Slave2 | CentOS 7 | 192.168.126.14 | ntp 、ntpdate 、mysql-boost-5.7.17.tar.gz |
CentOS 7-5 | 客户端 | CentOS 7-5 | 192.168.126.15 | mysql5.7 |
systemctl stop firewalld
systemctl disable firewalld
#关闭防火墙(及开机禁用)
setenforce 0
#关闭安全访问控制机制
#安装 NTP
yum -y install ntp
#配置 NTP
vim /etc/ntp.conf
#末行添加以下内容
server 127.127.126.0
fudge 127.127.126.0 stratum 8
#设置本地是时钟源,注意修改网段
#设置时间层级为8(限制在15内)
#重启服务
service ntpd restart
yum -y install ntp ntpdate
#安装服务,ntpdate用于同步时间
service ntpd start
#开启服务
/usr/sbin/ntpdate 192.168.126.11
#进行时间同步,指向Master服务器IP
crontab -e
#写入计划性任务,每半小时进行一次时间同步
*/30 * * * * /usr/sbin/ntpdate 192.168.126.11
vim /etc/my.cnf
#配置以下内容
server-id = 1
log-bin=master-bin
#添加,主服务器开启二进制日志
log-slave-updates=true
#添加,允许从服务器更新二进制日志
systemctl restart mysqld
#重启服务使配置生效
mysql -uroot -p123123
#登录数据库程序,给从服务器授权
GRANT REPLICATION SLAVE ON *.* TO 'myslave'@'192.168.126.%' IDENTIFIED BY '123123';
FLUSH PRIVILEGES;
show master status;
quit
#File 列显示日志名,Fosition 列显示偏移量
vim /etc/my.cnf
server-id = 2
#修改,注意id与Master的不同,两个Slave的id也要不同
relay-log=relay-log-bin
#添加,开启中继日志,从主服务器上同步日志文件记录到本地
relay-log-index=slave-relay-bin.index
#添加,定义中继日志文件的位置和名称
systemctl restart mysqld
mysql -uroot -p123123
change master to master_host='192.168.126.11' , master_user='myslave',master_password='123123',master_log_file='master-bin.000001',master_log_pos=604;
#配置同步,注意 master_log_file 和 master_log_pos 的值要与Master的一致
start slave;
#启动同步,如有报错执行 reset slave;
show slave status\G
#查看 Slave 状态
//确保 IO 和 SQL 线程都是 Yes,代表同步正常
Slave_IO_Running: Yes
#负责与主机的io通信
Slave_SQL_Running: Yes
#负责自己的slave mysql进程
- 一般 Slave_IO_Running: No 有这几种可能性:
- 网络不通
- my.cnf 配置有问题
- 密码、file 文件名、pos 偏移量不对
- 防火墙没有关闭
cd /opt/
#在FinalShell中,把软件包拖进来
amoeba-mysql-binary-2.2.0.tar.gz
jdk-6u14-linux-x64.bin
cp jdk-6u14-linux-x64.bin /usr/local/
cd /usr/local/
chmod +x jdk-6u14-linux-x64.bin
./jdk-6u14-linux-x64.bin
#按住Enter键不动一直到最下面,有提示输入YES+回车即可
mv jdk1.6.0_14/ /usr/local/jdk1.6
#改名
vim /etc/profile
#编辑全局配置文件,在最后一行添加以下配置
export JAVA_HOME=/usr/local/jdk1.6
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin/:$PATH:$HOME/bin
export AMOEBA_HOME=/usr/local/amoeba
export PATH=$PATH:$AMOEBA_HOME/bin
#输出定义Java的工作目录
#输出指定的java类型
#将java加入路径环境变量
#输出定义amoeba工作目录
#加入路径环境变量
source /etc/profile
#执行修改后的全局配置文件
java -version
#查看java版本信息以检查是否安装成功
mkdir /usr/local/amoeba
tar zxvf /opt/amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba/
chmod -R 755 /usr/local/amoeba/
/usr/local/amoeba/bin/amoeba
#如显示 amoeba start|stop 说明安装成功
grant all on *.* to test@'192.168.126.%' identified by '123.com';
cd /usr/local/amoeba/conf/
cp amoeba.xml amoeba.xml.bak
vim amoeba.xml
#修改amoeba配置文件
#30行修改
<property name="user">amoeba</property>
#32行修改
<property name="password">123123</property>
#115行修改
<property name="defaultPool">master</property>
#117去掉注释
<property name="writePool">master</property>
<property name="readPool">slaves</property>
cp dbServers.xml dbServers.xml.bak
vim dbServers.xml
#修改数据库配置文件
#23行注释掉
作用:默认进入test库 以防mysql中没有test库时,会报错
<!-- <property name="schema">test</property> -->
#26行修改
<property name="user">test</property>
#28-30行去掉注释
<property name="password">123.com</property>
#45行修改,设置主服务器的名Master
<dbServer name="master" parent="abstractServer">
#48行修改,设置主服务器的地址
<property name="ipAddress">192.168.126.11</property>
#52行修改,设置从服务器的名slave1
<dbServer name="slave1" parent="abstractServer">
#55行修改,设置从服务器1的地址
<property name="ipAddress">192.168.126.13</property>
#58行复制上面6行粘贴,设置从服务器2的名slave2和地址
<dbServer name="slave2" parent="abstractServer">
<property name="ipAddress">192.168.184.14</property>
#65行修改
<dbServer name="slaves" virtual="true">
#71修改
<property name="poolNames">slave1,slave2</property>
/usr/local/amoeba/bin/amoeba start&
#启动Amoeba软件,按ctrl+c 返回
netstat -anpt | grep java
#查看8066端口是否开启,默认端口为TCP 8066
yum -y install mysql
#用YUM快速安装MySQL虚拟客户端
mysql -u amoeba -p123123 -h 192.168.126.12 -P8066
#通过代理访问MySQL,IP地址指向amoba
#在通过客户端连接mysql后写入的数据只有主服务会记录,然后同步给从服务器
2.在 Master 上创建一个表,同步到两个从服务器上
use club;
create table puxin (id int(10),name varchar(10),address varchar(20));
3.然后关闭从服务器的 Slave 功能,从主服务器上同步了表,手动插入数据内容
stop slave;
#关闭同步
use club;
insert into puxin values('1','wangyi','this_is_slave1');
#slave2
insert into puxin values('2','wanger','this_is_slave2');
4.再回到主服务器上插入其他内容
insert into pucin values('3','wangwu','this_is_master');
5.测试读操作,前往客户端主机查询结果
use club;
select * from puxin;
6.在客户端上插入一条语句,但是在客户端上查询不到,最终只有在 Master 上才上查看到这条语句内容,说明写操作在 Master 服务器上
insert into puxin values('4','liuliu','this_is_client');
7.再在两个从服务器上执行 start slave; 即可实现同步在主服务器上添加的数据