MVCC底层原理与Mysql日志讲解

MVCC多版本并发控制机制详解

  • Mysql在可重复读隔离级别下如何保证事务较高的隔离性,我们上节课给大家演示过,同样的sql查询语句在一个事务里多次执行查询结果相同,就算其它事务对数据有修改也不会影响当前事务sql语句的查询结果。

  • 这个隔离性就是靠MVCC(Multi-Vesion Concurency Controller)机制来保证的,对一行数据的读和写两个操作默认是不会通过加锁互斥来保证隔离性,避免了频繁加锁互斥,而在串行化隔离级别为了保证较高的隔离性是通过将所有操作加锁互斥来实现的。

  • Mysql在读已提交和可重复读隔离级别下都实现了MVCC机制。

undo日志版本链与read view机制详解

  • undo日志版本链是指一行数据被多个事务依次修改过后,在每个事务修改完后,Mysq会保留修改前的数据undo回滚日志,并且用两个隐藏字段trx_id和roll_pointer把这些undo日志串联起来形成一个历史记录版本链(见下图,需参考视频里的例子理解)

    • trx_id:操作数据的事务id

    • roll_pointer:指向之前的旧数据(本次事务修改之前的那条数据),如果进行回滚,就找到指向的上一条数据

MVCC底层原理与Mysql日志讲解_第1张图片

  • 可重复读隔离级别,当事务开启,执行任何查询sq时会生成当前事务的一致性视图read-view(针对的是事务而不是某一张表),该视图在事务结束之前都不会变化(如果是读已提交隔离级别在每次执行查询sql时都会重新生成),这个视图由执行查询时所有未提交事务id数组(数组里最小的id为min_ id) 和已创建的最大事务id (max_ id) 组成,事务里的任何sql查询结果需要从对应版本链里的最新数据开始逐条跟read-view做比对从而得到最终的快照结果。

    • 注意::如果隔离级别为可重复读,read-view在一个仅有查询操作的事务中是不会变的而且第一次查询的是数据库中的值,所以才能保证可重复读,不管之前的事务有没有提交或者数据库中的值已经被修改,都是走的这个undo回滚日志操作链

    • 如果最大事务id为300没有执行完成则read-view: [100,200,300],300,根据下面比对规则300落在黄色部分且在事务数组中

    • 如果最大事务id为300已经执行完成则read-view: [100,200],300,根据下面比对规则300落在黄色部分且不在事务数组中

  • 版本链比对规则:

    • 如果row的trx_id 落在绿色部分( trx_ id

    • 如果row的trx_id 落在红色部分( trx_ jid> ),表示这个版本是由将来启动的事务生成的,是肯定不可见的;

    • 如果row的trx_id 落在黄色部分(min id <= trx_ id <= max_ id), 那就包括两种情况

      • 若row的trx_id 在视图数组中,表示这个版本是由还没提交的事务生成的,不可见,若row的trx_ _id 就是当前自己的事务是可见的;

      • 若row的trx_id不在视图数组中,表示这个版本是已经提交了的事务生成的,可见。

  • 对于删除的情况可以认为是update的特殊情况,会将版本链上最新的数据复制一份,然后将trx_ id修改成删除操作的trx_ id, 同时在该条记录的头信息(record header)里的(deleted_ flag) 标记位写上true,来表示当前记录已经被删除,在查询时按照上面的规则查到对应的记录如果delete_ flag标记位为true,意味着记录已被删除,则不返回数据。

  • 注意:begin/start transaction命令并不是一个事务的起点,在执行到它们之后的第一个修改操作InnoDB表的语句, 事务才真正启动,才会向mysql申请事务id, mysq|内部是严格按照事务的启动顺序来分配事务id的。

  • 总结:MVCC机制的实现就是通过read-view机制与undo版本链比对机制,使得不同的事务会根据数据版本链对比规则读取同-条数据在版本链上的不同版本数据。

Innodb引擎bufferPool缓存机制详解

MVCC底层原理与Mysql日志讲解_第2张图片

为什么Mysq|不能直接更新磁盘上的数据而且设置这么-套复杂的机制来执行SQL了?

  • 因为来一个请求就直接对磁盘文件进行随机读写, 然后更新磁盘文件里的数据性能可能相当差。因为磁盘随机读写的性能是非常差的,所以直接更新磁盘文件是不能让数据库抗住高并发的。Mysq|这套机制看起来复杂,但它可以保证每个更新请求都是更新内存BufferPool,然后顺序写日志文件,同时还能保证各种异常情况下的数据一致性。更新内存的性能是极高的,然后顺序写磁盘上的日志文件的性能也是非常高的,要远高于随机读写磁盘文件。正是通过这套机制,才能让我们的MySQL数据库在较高配置的机器上每秒可以抗下几干的读写请求。

 

你可能感兴趣的:(Mysql,mysql,数据库,sql)