基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4



MHA 架构搭建

一 、MHA架构

MHA(Master High Availability)是一套比较成熟的 MySQL 高可用方案,也是一款优秀的故障切换和主从提升的高可用软件。在MySQL故障切换过程中,MHA能做到在30秒之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用。MHA还支持在线快速将Master切换到其他主机,通常只需0.5-2秒。目前MHA主要支持一主多从的架构,要搭建MHA,要求一个复制集群中必须最少有三台数据库服务器。

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第1张图片
MHA由两部分组成:MHA Manager(管理节点)和MHA Node(数据节点)。

  • MHA Manager可以单独部署在一台独立的机器上管理多个master-slave集群,也可以部署在一台slave节点上。负责检测master是否宕机、控制故障转移、检查MySQL复制状况等。

  • MHA Node运行在每台MySQL服务器上,不管是Master角色,还是Slave角色,都称为Node,是被监控管理的对象节点,负责保存和复制master的二进制日志、识别差异的中继日志事件并将其差异的事件应用于其他的slave、清除中继日志。

    MHA Manager会定时探测集群中的master节点,当master出现故障时,它可以自动将最新数据的slave提升为新的master,然后将所有其他的slave重新指向新的master,整个故障转移过程对应用程序完全透明。


MHA故障处理机制

  • 把宕机master的binlog保存下来
  • 根据binlog位置点找到最新的slave
  • 用最新slave的relay log修复其它slave
  • 将保存下来的binlog在最新的slave上恢复
  • 将最新的slave提升为master
  • 将其它slave重新指向新提升的master,并开启主从复制

MHA优点

  • 自动故障转移快
  • 主库崩溃不存在数据一致性问题
  • 性能优秀,支持半同步复制和异步复制
  • 一个Manager监控节点可以监控多个集群

二 、MHA架构搭建

2.1 架构介绍

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第2张图片

2.2 准备工作

准备工作1:节点搭建,修改节点主机名称和ip地址

节点ip地址(修改网卡信息) 主机名称 (修改 /etc/hostname)
192.168.80.110 mhaManager
192.168.80.128 master
192.168.80.55 slave1
192.168.80.56 slave2

准备工作2

	主从搭建,一主两从(实现半同步或者同步复制都可以)

参考地址:半同步或者同步复制搭建流程

测试:在master上添加一条数据 ,在slave1和slave2上同步此条数据基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第3张图片



2.3 架构搭建

MHA搭建步骤1

	保证MHAManager,Master,Slave1,Slave2四台机器ssh互通

	在四台服务器上分别执行下面命令,生成公钥和私钥,命令执行过程中一直换行回车采用默认值进行生成即可

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第4张图片
基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第5张图片


	将四台机器的公钥(公钥所在位置:/root/.ssh/id_rsa.pub)复制到同一个文件中authorized_keys,
	authorized_keys文件中的内容如下:包含了四台节点的公钥信息

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第6张图片

	将此文件authorized_keys在四台机器中进行复制,此文件的复制位置是: /root/.ssh/authorized_keys 

	测试无密登陆:从 从节点  登陆主节点

在这里插入图片描述

搭建步骤2

	MHA下载安装

	修改yum源,下载wget工具

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第7张图片

MHA版本下载注意

	MySQL5.7对应的MHA版本是0.5.8,所以在GitHub上找到对应的rpm包进行下载,MHA manager和node的安装包需要分别下载:
		https://github.com/yoshinorim/mha4mysql-node/releases/tag/v0.58
		https://github.com/yoshinorim/mha4mysql-node/releases/tag/v0.58
	下载后,将Manager和Node的安装包分别上传到对应的服务器。(可使用WinSCP等工具)
  • 三台MySQL服务器需要安装node
  • MHA Manager服务器需要安装manager和node

这提示:也可以使用wget命令在linux系统直接下载获取,例如
wget https://github.com/yoshinorim/mha4mysql-manager/releases/download/v0.58/mha4mysql-manager-0.58-0.el7.centos.noarch.rp


搭建步骤3:MHA node安装(三台MySQL服务器需要安装node)

# 在四台服务器上安装mha4mysql-node
# MHA的Node依赖于perl-DBD-MySQL,所以要先安装perl-DBD-MySQL

	yum install perl-DBD-MySQL -y

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第8张图片

# 下载mha4mysql-node(如果没有当前软件包 可以在线下载)
	wget https://github.com/yoshinorim/mha4mysql-node/releases/download/v0.58/mha4mysql-node-0.58-0.el7.centos.noarch.rpm
# 安装mha4mysql-node
	rpm -ivh mha4mysql-node-0.58-0.el7.centos.noarch.rpm

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第9张图片

搭建步骤4:MHA manager安装

# 在MHA Manager服务器已经安装了 mha4mysql-node
# 再继续安装 mha4mysql-manager 
# MHA的manager又依赖了perl-Config-Tiny、perl-Log-Dispatch、perl-Parallel-ForkManager,也分别进行安装 

# 注意:由于perl-Log-Dispatch和perl-Parallel-ForkManager这两个被依赖包在yum仓库找不到(国内的yum源找不到),
	因此安装epel-release-latest-7.noarch.rpm(软件源)
		
	wget http://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm     		 # 下载epel软件源
	rpm -ivh epel-release-latest-7.noarch.rpm 				# 安装epel软件源

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第10张图片

# MHA的manager又依赖了perl-Config-Tiny、perl-Log-Dispatch、perl-Parallel-ForkManager,也分别进行安装 
	yum install perl-DBD-MySQL perl-Config-Tiny perl-Log-Dispatch perl-Parallel-ForkManager -y

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第11张图片


# 下载mha4mysql-manager(如果没有当前软件包 可以在线下载)
	wget https://github.com/yoshinorim/mha4mysql-manager/releases/download/v0.58/mha4mysql-manager-0.58-0.el7.centos.noarch.rpm
# 安装mha4mysql-manager
	rpm -ivh mha4mysql-manager-0.58-0.el7.centos.noarch.rpm

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第12张图片

提示:由于perl-Log-Dispatch和perl-Parallel-ForkManager这两个被依赖包在yum仓库找不到(国内的yum源找不到),
因此安装epel-release-latest-7.noarch.rpm(软件源)。在使用时,可能会出现下面异常:Cannot
retrieve metalink for repository: epel/x86_64。可以尝试使
用/etc/yum.repos.d/epel.repo,然后注释掉mirrorlist,取消注释baseurl。


搭建步骤5:MHA 配置文件

	MHA 配置文件

	MHA Manager服务器需要为每个监控的 Master/Slave 集群提供一个专用的配置文件,而所有的
	Master/Slave 集群也可共享全局配置。

初始化配置目录

#目录说明
#/var/log (CentOS目录)
# /mha (MHA监控根目录)
# /app1 (MHA监控实例根目录)
# /manager.log (MHA监控实例日志文件)


配置监控全局配置文件

	vim /etc/masterha_default.cnf

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第13张图片

参数说明:

# 填写mha的账户   (此账户是在master主节点数据库中创建的账户,可以使用root账户,建议单独在master上的mysql数据库中创建一个账户)
	user=xxx   	
	注意:此账户一定需要有远程访问权限

# 填写mha的密码
	password=xxx  

# 使用ssh命令的账户
	ssh_user=xxx    

# 主库和从库的mysql账户(master和slave的mysql密码需要保持一致)
	repl_user=xxx   
# 主库和从库的mysql密码(master和slave的mysql密码需要保持一致)
	repl_password=xxx  

配置监控实例配置文件

	mkdir -p /var/log/mha/app1
	touch /var/log/mha/app1/manager.log
	vim /etc/mha/app1.cnf

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第14张图片


搭建步骤6:MHA 配置检测

	执行ssh通信检测
	在MHA Manager服务器上执行:masterha_check_ssh --conf=/etc/mha/app1.cnf

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第15张图片

搭建步骤7:检测MySQL主从复制

	在MHA Manager服务器上执行:masterha_check_repl --conf=/etc/mha/app1.cnf
	出现“MySQL Replication Health is OK.”证明MySQL复制集群没有问题。

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第16张图片
基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第17张图片

搭建步骤8:MHA Manager启动

	在MHA Manager服务器上执行:
	nohup masterha_manager --conf=/etc/mha/app1.cnf --remove_dead_master_conf 
			--ignore_last_failover < /dev/null > /var/log/mha/app1/manager.log 2>&1 &

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第18张图片

	查看监控状态命令如下:masterha_check_status --conf=/etc/mha/app1.cnf

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第19张图片


	查看监控日志命令如下:tail -f /var/log/mha/app1/manager.log

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第20张图片

搭建步骤9:测试MHA故障转移(模拟主节点崩溃)

	在MHA Manager服务器执行打开日志命令:tail -200f /var/log/masterha/app1/app1.log
	关闭Master MySQL服务器服务,模拟主节点崩溃:systemctl stop mysqld
	查看MHA日志,可以看到哪台slave切换成了master:show master status;

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第21张图片



2.3 将原主启动切换回主

1. 启动旧的主库:
	systemctl start mysqld

在这里插入图片描述

2. 挂到新主做从库:
change  master to   master_host='192.168.80.55',  master_port=3306,
			master_user='root',  master_password ='root',  master_log_file='xxx',  
				master_log_pos=当前新主节点的日志位置;

start slave; // 开启同步

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第22张图片

3. 编辑配置文件 /etc/mha/app1.cnf
vi   /etc/mha/app1.cnf

#添加节点

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第23张图片

4. 使用MHA在线切换命令将原主切换回来

结束MHA Manager进程:

	masterha_stop --global_conf=/etc/masterha/masterha_default.conf --conf=/etc/mha/app1.cnf	

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第24张图片

	执行切换命令:	
		masterha_master_switch --conf=/etc/mha/app1.cnf --master_state=alive --new_master_host=master
			 --new_master_port=3306 --orig_master_is_new_slave
					--running_updates_limit=10000

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第25张图片基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第26张图片

注意:

	master如果使用ip地址,会报错:
		[error][/usr/share/perl5/vendor_perl/MHA/ServerManager.pm, ln1218] 192.168.80.128 is not alive!
	需要将ip地址设置成主机名即可

完整的执行脚本如下:

	[root@mhaManager ~]# masterha_master_switch   --conf=/etc/mha/app1.cnf --master_state=alive --new_master_host=master --new_master_port=3306 --orig_master_is_new_slave --running_updates_limit=10000
	Wed Dec  9 04:15:24 2020 - [info] MHA::MasterRotate version 0.58.
	Wed Dec  9 04:15:24 2020 - [info] Starting online master switch..
	Wed Dec  9 04:15:24 2020 - [info] 
	Wed Dec  9 04:15:24 2020 - [info] * Phase 1: Configuration Check Phase..
	Wed Dec  9 04:15:24 2020 - [info] 
	Wed Dec  9 04:15:24 2020 - [info] Reading default configuration from /etc/masterha_default.cnf..
	Wed Dec  9 04:15:25 2020 - [info] Reading application default configuration from /etc/mha/app1.cnf..
	Wed Dec  9 04:15:25 2020 - [info] Reading server configuration from /etc/mha/app1.cnf..
	Wed Dec  9 04:15:26 2020 - [info] GTID failover mode = 0
	Wed Dec  9 04:15:26 2020 - [info] Current Alive Master: slave1(192.168.80.55:3306)
	Wed Dec  9 04:15:26 2020 - [info] Alive Slaves:
	Wed Dec  9 04:15:26 2020 - [info]   master(192.168.80.128:3306)  Version=5.7.28-log (oldest major version between slaves) log-bin:enabled
	Wed Dec  9 04:15:26 2020 - [info]     Replicating from 192.168.80.55(192.168.80.55:3306)
	Wed Dec  9 04:15:26 2020 - [info]     Primary candidate for the new Master (candidate_master is set)
	Wed Dec  9 04:15:26 2020 - [info]   slave2(192.168.80.56:3306)  Version=5.7.28-log (oldest major version between slaves) log-bin:enabled
	Wed Dec  9 04:15:26 2020 - [info]     Replicating from 192.168.80.55(192.168.80.55:3306)
	Wed Dec  9 04:15:26 2020 - [info]     Primary candidate for the new Master (candidate_master is set)
	
	It is better to execute FLUSH NO_WRITE_TO_BINLOG TABLES on the master before switching. Is it ok to execute on slave1(192.168.80.55:3306)? (YES/no): yes
	Wed Dec  9 04:15:29 2020 - [info] Executing FLUSH NO_WRITE_TO_BINLOG TABLES. This may take long time..
	Wed Dec  9 04:15:29 2020 - [info]  ok.
	Wed Dec  9 04:15:29 2020 - [info] Checking MHA is not monitoring or doing failover..
	Wed Dec  9 04:15:29 2020 - [info] Checking replication health on master..
	Wed Dec  9 04:15:29 2020 - [info]  ok.
	Wed Dec  9 04:15:29 2020 - [info] Checking replication health on slave2..
	Wed Dec  9 04:15:29 2020 - [info]  ok.
	Wed Dec  9 04:15:29 2020 - [info] master can be new master.
	Wed Dec  9 04:15:29 2020 - [info] 
	From:
	slave1(192.168.80.55:3306) (current master)
	 +--master(192.168.80.128:3306)
	 +--slave2(192.168.80.56:3306)
	
	To:
	master(192.168.80.128:3306) (new master)
	 +--slave2(192.168.80.56:3306)
	 +--slave1(192.168.80.55:3306)
	
	Starting master switch from slave1(192.168.80.55:3306) to master(192.168.80.128:3306)? (yes/NO): yes
	Wed Dec  9 04:17:17 2020 - [info] Checking whether master(192.168.80.128:3306) is ok for the new master..
	Wed Dec  9 04:17:17 2020 - [info]  ok.
	Wed Dec  9 04:17:17 2020 - [info] slave1(192.168.80.55:3306): SHOW SLAVE STATUS returned empty result. To check replication filtering rules, temporarily executing CHANGE MASTER to a dummy host.
	Wed Dec  9 04:17:17 2020 - [info] slave1(192.168.80.55:3306): Resetting slave pointing to the dummy host.
	Wed Dec  9 04:17:17 2020 - [info] ** Phase 1: Configuration Check Phase completed.
	Wed Dec  9 04:17:17 2020 - [info] 
	Wed Dec  9 04:17:17 2020 - [info] * Phase 2: Rejecting updates Phase..
	Wed Dec  9 04:17:17 2020 - [info] 
	master_ip_online_change_script is not defined. If you do not disable writes on the current master manually, applications keep writing on the current master. Is it ok to proceed? (yes/NO): yes
	Wed Dec  9 04:17:19 2020 - [info] Locking all tables on the orig master to reject updates from everybody (including root):
	Wed Dec  9 04:17:19 2020 - [info] Executing FLUSH TABLES WITH READ LOCK..
	Wed Dec  9 04:17:19 2020 - [info]  ok.
	Wed Dec  9 04:17:19 2020 - [info] Orig master binlog:pos is mysql-bin.000009:313.
	Wed Dec  9 04:17:19 2020 - [info]  Waiting to execute all relay logs on master(192.168.80.128:3306)..
	Wed Dec  9 04:17:19 2020 - [info]  master_pos_wait(mysql-bin.000009:313) completed on master(192.168.80.128:3306). Executed 0 events.
	Wed Dec  9 04:17:19 2020 - [info]   done.
	Wed Dec  9 04:17:19 2020 - [info] Getting new master's binlog name and position..
	Wed Dec  9 04:17:19 2020 - [info]  mysql-bin.000002:154
	Wed Dec  9 04:17:19 2020 - [info]  All other slaves should start replication from here. Statement should be: CHANGE MASTER TO MASTER_HOST='master or 192.168.80.128', MASTER_PORT=3306, MASTER_LOG_FILE='mysql-bin.000002', MASTER_LOG_POS=154, MASTER_USER='root', MASTER_PASSWORD='xxx';
	Wed Dec  9 04:17:19 2020 - [info] 
	Wed Dec  9 04:17:19 2020 - [info] * Switching slaves in parallel..
	Wed Dec  9 04:17:19 2020 - [info] 
	Wed Dec  9 04:17:19 2020 - [info] -- Slave switch on host slave2(192.168.80.56:3306) started, pid: 7789
	Wed Dec  9 04:17:19 2020 - [info] 
	Wed Dec  9 04:17:20 2020 - [info] Log messages from slave2 ...
	Wed Dec  9 04:17:20 2020 - [info] 
	Wed Dec  9 04:17:19 2020 - [info]  Waiting to execute all relay logs on slave2(192.168.80.56:3306)..
	Wed Dec  9 04:17:19 2020 - [info]  master_pos_wait(mysql-bin.000009:313) completed on slave2(192.168.80.56:3306). Executed 0 events.
	Wed Dec  9 04:17:19 2020 - [info]   done.
	Wed Dec  9 04:17:19 2020 - [info]  Resetting slave slave2(192.168.80.56:3306) and starting replication from the new master master(192.168.80.128:3306)..
	Wed Dec  9 04:17:19 2020 - [info]  Executed CHANGE MASTER.
	Wed Dec  9 04:17:19 2020 - [info]  Slave started.
	Wed Dec  9 04:17:20 2020 - [info] End of log messages from slave2 ...
	Wed Dec  9 04:17:20 2020 - [info] 
	Wed Dec  9 04:17:20 2020 - [info] -- Slave switch on host slave2(192.168.80.56:3306) succeeded.
	Wed Dec  9 04:17:20 2020 - [info] Unlocking all tables on the orig master:
	Wed Dec  9 04:17:20 2020 - [info] Executing UNLOCK TABLES..
	Wed Dec  9 04:17:20 2020 - [info]  ok.
	Wed Dec  9 04:17:20 2020 - [info] Starting orig master as a new slave..
	Wed Dec  9 04:17:20 2020 - [info]  Resetting slave slave1(192.168.80.55:3306) and starting replication from the new master master(192.168.80.128:3306)..
	Wed Dec  9 04:17:20 2020 - [info]  Executed CHANGE MASTER.
	Wed Dec  9 04:17:20 2020 - [info]  Slave started.
	Wed Dec  9 04:17:20 2020 - [info] All new slave servers switched successfully.
	Wed Dec  9 04:17:20 2020 - [info] 
	Wed Dec  9 04:17:20 2020 - [info] * Phase 5: New master cleanup phase..
	Wed Dec  9 04:17:20 2020 - [info] 
	Wed Dec  9 04:17:20 2020 - [info]  master: Resetting slave info succeeded.
	Wed Dec  9 04:17:20 2020 - [info] Switching master to master(192.168.80.128:3306) completed successfully.
5. 测试SQL脚本
	查看切换日志文件,即可了解128节点是否再次切换为主节点

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第27张图片

常见错误1:
	MHA安装报错None of slaves can be master. Check failover configuration file or log-bin settings in my.cnf
	修改:在俩个从节点开启log_bin

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第28张图片

基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第29张图片

常见错误2:
报错:
	[/usr/share/perl5/vendor_perl/MHA/ManagerUtil.pm, ln122] Got error when getting node version. Error:
	[/usr/share/perl5/vendor_perl/MHA/ManagerUtil.pm, ln123]bash: apply_diff_relay_logs: 未找到命令

原因:
	node节点没有安装,在master和slave上执行

解决:在master和slave节点上都需要安装node
	wget https://github.com/yoshinorim/mha4mysql-node/releases/download/v0.58/mha4mysql-node-0.58-0.el7.centos.noarch.rpm
	rpm -ivh mha4mysql-node-0.58-0.el7.centos.noarch.rpm --force --nodeps


2.4 主备切换

主备切换是指将备库变为主库,主库变为备库,有可靠性优先和可用性优先两种策略。

  • 主备延迟问题

      主备延迟是由主从数据同步延迟导致的,与数据同步有关的时间点主要包括以下三个:
      	* 主库 A 执行完成一个事务,写入 binlog,我们把这个时刻记为 T1;
      	* 之后将binlog传给备库 B,我们把备库 B 接收完 binlog 的时刻记为 T2;
      	* 备库 B 执行完成这个binlog复制,我们把这个时刻记为 T3。
    

    所谓主备延迟,就是同一个事务,在备库执行完成的时间和主库执行完成的时间之间的差值,也就是 T3-T1。

    在备库上执行show slave status命令,它可以返回结果信息,seconds_behind_master表示当前备库延迟了多少秒。

      同步延迟主要原因如下:
      	* 备库机器性能问题
      		机器性能差,甚至一台机器充当多个主库的备库。
      	* 分工问题
      		备库提供了读操作,或者执行一些后台分析处理的操作,消耗大量的CPU资源。
      	* 大事务操作
      		大事务耗费的时间比较长,导致主备复制时间长。比如一些大量数据的delete或大表DDL操作都可能会引发大事务。
    

  • 可靠性优先
    主备切换过程一般由专门的HA高可用组件完成,但是切换过程中会存在短时间不可用,因为在切换过程中某一时刻主库A和从库B都处于只读状态。如下图所示:
    基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第30张图片

      主库由A切换到B,切换的具体流程如下:
      	* 判断从库B的Seconds_Behind_Master值,当小于某个值才继续下一步
      	* 把主库A改为只读状态(readonly=true)
      	* 等待从库B的Seconds_Behind_Master值降为 0
      	* 把从库B改为可读写状态(readonly=false)
      	* 把业务请求切换至从库B
    

  • 可用性优先
    不等主从同步完成, 直接把业务请求切换至从库B ,并且让 从库B可读写 ,这样几乎不存在不可用时间,但可能会数据不一致。
    基于CentOS7,MySQL5.7的高可用MHA架构搭建实战4_第31张图片

      如上图所示,在A切换到B过程中,执行两个INSERT操作,过程如下:
      	* 	 主库A执行完 INSERT c=4 ,得到 (4,4) ,然后开始执行 主从切换
      	*	 主从之间有5S的同步延迟,从库B会先执行 INSERT c=5 ,得到 (4,5)
      	* 	 从库B执行主库A传过来的binlog日志 INSERT c=4 ,得到 (5,4)
      	*	 主库A执行从库B传过来的binlog日志 INSERT c=5 ,得到 (5,5)
      	*	 此时主库A和从库B会有 两行 不一致的数据
    

通过上面介绍了解到,主备切换采用可用性优先策略,由于可能会导致数据不一致,所以大多数情况下,优先选择可靠性优先策略。在满足数据可靠性的前提下,MySQL的可用性依赖于同步延时的大小,同步延时越小,可用性就越高。




下节内容:ShardingSphere实战

你可能感兴趣的:(MySQL海量数据存储与优化,数据库,mysql,vim,算法,java)