内存屏障

1. 内存屏障

内存屏障是被插入两个CPU指令之间的一种指令,用来禁止处理器指令发生重排序(像屏障一样),从而保障有序性的。另外,为了达到屏障的效果,它也会使处理器写入、读取值之前,将写缓冲器的值写入高速缓存,清空无效队列,从而“附带”的保障了可见性。

举个例子说明:
Store1 Store2 Load1 StoreLoad屏障 Store3 Load2 Load3

对于上面的一组CPU指令(Store表示写入指令,Load表示读取指令),StoreLoad屏障之前的Store指令无法与StoreLoad屏障之后的Load指令进行交换位置,即重排序。但是StoreLoad屏障之前和之后的指令是可以互换位置的,即Store1可以和Store2互换,Load2可以和Load3互换。

StoreLoad屏障的目的在于使屏障前的写操作的结果,对于屏障后的读操作是可见的。为了保障这一点,除了指令不能重排序外,StoreLoad屏障还会在写操作完之后,将写缓冲器中的条目冲刷入高速缓存或主内存;在读操作之前,清空无效化队列,从主内存或其他处理器的高速缓存中读取最新值到自己的内存。从而保障了数据在不同处理器之间是一致的,即可见性。

1.1 基本内存屏障

基本内存屏障可以分为:LoadLoad屏障、LoadStore屏障、StoreStore屏障和StoreLoad屏障。这些屏障可统一用XY来表示,XY屏障的作用是禁止屏障左侧的任何X操作与屏障右侧的任何Y操作之间进行重排序。

LoadLoad屏障
对于这样的语句 Load1; LoadLoad; Load2,在Load2及后续读取操作要读取的数据被访问前,保证Load1要读取的数据被读取完毕。
StoreStore屏障
对于这样的语句 Store1; StoreStore; Store2,在Store2及后续写入操作执行前,保证Store1的写入操作对其它处理器可见。
LoadStore屏障
对于这样的语句Load1; LoadStore; Store2,在Store2及后续写入操作被执行前,保证Load1要读取的数据被读取完毕。
StoreLoad屏障
对于这样的语句Store1; StoreLoad; Load2,在Load2及后续所有读取操作执行前,保证Store1的写入对所有处理器可见。它的开销是四种屏障中最大的(冲刷写缓冲器,清空无效化队列)。在大多数处理器的实现中,这个屏障是个万能屏障,兼具其它三种内存屏障的功能.

1.2 内存屏障的分类

  1. 按照可见性保障来划分
    内存屏障可分为:加载屏障(Load Barrier)和存储屏障(Store Barrier)。
    加载屏障:StoreLoad屏障可充当加载屏障,作用是刷新处理器缓存,即清空无效化队列,使处理器在读取共享变量时,先从主内存或其他处理器的高速缓存中读取相应变量,更新到自己的缓存中
    存储屏障:StoreLoad屏障可充当存储屏障,作用是冲刷处理器缓存,即将写缓冲器内容写入高速缓存中,使处理器对共享变量的更新写入高速缓存或者主内存中
    这两个屏障一起保证了数据在多处理器之间是可见的。
  2. 按照有序性保障来划分
    内存屏障分为:获取屏障(Acquire Barrier)和释放屏障(Release Barrier)。
    获取屏障:相当于LoadLoad屏障与LoadStore屏障的组合。在读操作后插入,禁止该读操作与其后的任何读写操作发生重排序;
    释放屏障:相当于LoadStore屏障与StoreStore屏障的组合。在一个写操作之前插入,禁止该写操作与其前面的任何读写操作发生重排序。
    这两个屏障一起保证了临界区中的任何读写操作不可能被重排序到临界区之外。

————————————————
原文链接:https://blog.csdn.net/z55887/article/details/80836313

你可能感兴趣的:(基础,java)