《多处理器编程的艺术》读书笔记(6)--- 队列锁

      在BackoffLock算法中有两个问题:1.cache一致性流量:所有线程都在同一个共享存储单元上旋转,每一次成功的锁访问都会产生cache一致性流量(尽管比TASLock低);2.临界区利用率低:线程延迟过长,导致临界区利用率低下。

      可以将线程组织成一个队列来克服这些缺点。在队列中,每个线程检测其前驱线程是否已完成来判断是否轮到自己。让每个线程在不同的存储单元上旋转,从而降低cache一致性流量。队列还提高了临界区的利用率,因为没有必要去判断何时要访问它:每个线程直接由队列中的前驱线程来通知。最后,队列提供先来先服务的公平性。

基于数组的锁 ALock

Code

      tail被所有的线程共享,其初始值为-1。为了获得锁,每个线程原子地增加tail。所得的结果称为线程的槽。槽则被当作布尔数据flag的索引。如果flag[j]为true,那么槽为j的线程有权获得锁。在初始状态时,flag[0]为true。为了获得锁,线程不断地旋转直到它的槽所对应的flag变为true。而在释放锁时,线程把对应于它自己槽的flag设为false,并将下一个槽的flag设为true。数组的大小size就是最大的并发线程数。

      在ALock算法中,mySlotIndex是线程的局部变量。线程的局部变量与线程的常规变量不同,对于每个局部变量,线程都有它自己独立初始化的副本。局部变量不需要保存在共享存储器中,不需要同步,也不会产生任何一致性流量。

      数组flag[]是被多个线程所共享。但在任意给定的时间,由于每个线程都是在一个数组存储单元的本地cache副本上旋转,大大降低了无效流量,从而使得对数组存储单元的争用达到最小。但要注意争用仍有可能发生,当相邻的数据项(如数组元素)共享同一cache线时,对一个数据项的写将会使该数据项的cache线无效,对于那些恰好进入同一个cache线的未改变但很接近的数据项这种写将会引起正在这些数据上进行旋转的处理器的无效流量。

你可能感兴趣的:(读书笔记)