mysql主从复制,对于高并发写入的效率问题

我们的项目数据量很大,为了使用mysql5.6的新特性,将mysql5.1升级到了mysql5.6.19最新版,数据库总大小500G左右。
mysql主从复制,对于高并发写入的效率问题_第1张图片
我们每天的数据会新增1千万左右,插入在数据库中,大部分的已经按日期或项目分表,有个别的统计汇总表,目前以每天500W左右增加,不过只保留一个月数据。
下载地址: http://dev.mysql.com/downloads/mysql/
直接PRM包:MySQL-server-5.6.19-1.linux_glibc2.5.x86_64.rpm
安装:rpm -ivh MySQL-server-5.6.19-1.linux_glibc2.5.x86_64.rpm
将datadir目录修改为原来的数据库目录,删除ib_logfile0,ib_logfile1文件
执行: mysql_upgrade -u root -p -h127.0.0.1
mysql主从复制,对于高并发写入的效率问题_第2张图片
Mysql 5.1 分区表理论支持1024个,mysql 5.6的分区表(partition)理论支持是mysql5.1的十倍。(中间有一个小故事,我创建了一个分区表,hash分区8000个,当我按下回车的时候,我就知道自己手贱了,果然mysql假死,然后我在没有创建完成的情况,drop了表,我晕,mysql挂了,我的500G数据库损坏了,已经做好了负分滚出的准备,不过被我修复好了)。
mysql主从复制,对于高并发写入的效率问题_第3张图片
前两天做了双从,因为我们写的非常高,IO也是特别高的,从数据库同步的写入也特别高,而且还要延迟同步,新加入的机器就成了备份服务器,没有太大的意义,一般情况不会这样吧。

你可能感兴趣的:(Mysql)