插入大批数据,怎么优化?

插入大批数据,怎么优化?
性能跟日志息息相关。
每一个单独的insert语句,都会隐式开启事务,语句执行完毕自动提交事务。
每提交一次事务,redo log buffer,bin log 就要刷一次盘。
所以优化点,就在于控制日志刷盘次数,减少磁盘IO的次数。
我们可以手动的提交事务,批量插入数据之后,再提交事务。
让多个commit提交,合并成一个commit提交。
其实是牺牲数据的安全性来换取性能的提升。

你可能感兴趣的:(MySQL,数据库,MySQL,日志,批量插入数据)