一般来说,我们要设计一个线程安全的类,要从三个方面去考虑:
不变性条件取决于类的语义,比如说计数器类的 counter
属性被设置为 Integer
类型,虽然其域值在 Integer.MIN_VALUE
到 Integer.MAX_VALUE
之间,但是它的值必须非负。即:随着计数的进行,conuter >= 0
总是成立。
除了不变性条件之外,一些操作还需要通过后验条件,以此判断状态的更改是否有效。比如一个计数器计到 17 时,它的下一个状态只可能是 18。这实际涉及到了对原先状态的 "读 - 改 - 写" 三个连续的步骤,典型的如自增 ++
等。"无记忆性" 的状态是不需要后验条件的,比如每隔一段时间测量的温度值。
先验条件可能是更加关注的问题,因为 "先判断后执行" 的逻辑到处存在。比如说对一个列表执行 remove 操作时,首先需要保证列表是非空的,否则就应该抛出异常。
在并发环境下,这些条件均可能会随着其它线程的修改而出现失真。
在许多情况下,所有权和封装性是相互关联的。比如对象通过 private
关键字封装了它的状态,即表明实例独占对该状态的所有权 ( 所有权意味控制权 )。反之,则称该状态被发布。被发布的实例状态可能会被到处修改,因此它们在多线程环境中也存在风险。
容器类通常和元素表现出 "所有权" 分离的形式。比如说一个声明为 final
的列表,客户端虽然无法修改其本身的引用,但可以自由地修改其元素的状态。这些事实上被发布的元素必须被安全地共享。这要求元素:
大多数对象都是组合对象,或者说这些状态也是对象。对组合类的线程安全性分析大致分为两类:
对于第一个问题,见下方的 Bank
代码,它模拟了一个转账业务:
class Bank {
private Integer amount_A = 100;
private Integer amount_B = 50;
public synchronized void transaction(Integer amount){
var log_0 = amount_A + amount_B;
amount_A += amount;
amount_B -= amount;
var log_1 = amount_A + amount_B;
assert log_0 == log_1;
}
}
虽然 amount_A
和 amount_B
本身作为普通的 Integer
类型并不是线程安全的,但是它们具备线程安全的语义:
private
成员,因此不存在被意外共享的问题。transaction()
方法被锁保护。也可以理解成:Bank
是为两个 Integer
状态提供线程安全性的容器。在此处,同步策略由 synchronized
内置锁实现。
编译器会在 synchronized 的代码区前后安插
monitorenter
和monitorexit
字节码表示进入 / 退出同步代码块。Java 的内置锁也称之监视器锁,或者监视器。
至于第二个问题,答案是:看情况,具体地说是分析是否存在不变性条件,在这里,它指代在转账过程当中,a 和 b 两个账户的余额之和应当不变。如果使用原子类型保护 amount_A
和 amount_B
的状态,那么是否就可以撤下 transaction()
方法上的内置锁了?
class UnsafeBank {
private final AtomicInteger amount_A = new AtomicInteger(100);
private final AtomicInteger amount_B = new AtomicInteger(50);
public void transaction(Integer amount){
amount_A.set(amount_A.get() - amount);
amount_B.set(amount_B.get() + amount);
}
}
transaction()
方法现在失去了锁的保护。这样,某线程 A 在执行交易的过程中,另一个线程 B 也可能会 "趁机" 修改 amount_B
的账目 —— 这个时机发生在线程 A 执行 amount_B.get()
之后,但在 amount_B.set()
之前。最终,B 线程的修改将被覆盖而丢失,在它看来,尽管两个状态均是原子变量,但不变性条件仍然被破坏了。
由此得到一个结论 —— 就算所有的可变状态都是原子的,我们可能仍需要在封装类的层面进一步考虑同步策略,最简单直接的就是找出封装类内的所有复合操作:
在大部分情况下,我们不能通过直接修改类源码的形式补充同步策略。比如,普通的 List
接口不保证底下的各种实现是线程安全的,但我们可以通过类似代理的方式将线程安全委托给第三方。比如:
class ThreadSafeArrayList {
private final List list;
public ThreadSafeArrayList(List l){list = l;}
// 添加新的方法
public synchronized boolean putIfAbsent(Integer a){
if(list.contains(a)) {
list.add(a);
return true;
}
return false;
}
// 代理 add 方法,其它略
public synchronized boolean add(Integer a) {
return list.add(a);
}
// ...
}
事实上,Java 类库已经有了对应的线程安全类。通常,我们应当优先重用这些已有的类。在下方的代码块中,我们使用 Collection.synchronizedList
工厂方法创建一个线程安全的 list
对象,这样似乎就只需要为新拓展的 putIfAbsent()
方法加锁了。
class ThreadUnSafeArrayList {
private final List list = Collections.synchronizedList(new ArrayList<>());
// 添加新的方法
public synchronized boolean putIfAbsent(Integer a){
if(list.contains(a)) {
list.add(a);
return true;
}
return false;
}
public boolean add(Integer a){return list.add(a);}
//...
}
但是,上述的代码是错误的。为什么?问题在于,我们使用了错误的锁进行了同步。当调用的是 add
方法时,使用的是列表对象的内置锁;但调用 putIfAbsent
方法时,我们使用的却是 ThreadUnsafeArrayList
对象的内置锁。这意味着 putIfAbsent
方法对于其它的方法来说不是原子的,因此无法确保一个线程执行 putIfAbsent
方法时,其它线程是否会通过调用其它方法修改列表。
因此,想要让这个方法正确执行,我们必须要在正确的地方上锁。
class ThreadUnSafeArrayList {
private final List list = Collections.synchronizedList(new ArrayList<>());
public boolean putIfAbsent(Integer a){
synchronized (list){
if(list.contains(a)) {
list.add(a);
return true;
}
return false;
}
}
}
同步容器是安全的,但在某些情况下仍然需要客户端加锁。常见的操作如:
这里有两个线程 T1,T2 分别会以不可预测的次序执行两个代码块,它们负责删除和读取 list
中的末尾元素。我们在这里使用的是库中的同步列表,因此可以确保 size()
,remove()
,get()
方法全部是原子的。但是,当程序以 x1
,y1
,x2
,y2
的操作次序执行时,主程序最终仍然会抛出IndexOutOfBoundsException
异常。
class DemoOfConcurrentFail {
public final List list = Collections.synchronizedList(new ArrayList<>());
{
Collections.addAll(list, 1, 2, 3, 4, 5);
}
public static void main(String[] args) {
var testList = new DemoOfConcurrentFail().list;
Runnable t1 = () -> {
var last = testList.size() - 1; // x1
testList.remove(last); // x2
};
Runnable t2 = () -> {
var last = testList.size() -1; // y1
var r = testList.get(last); // y2
System.out.println(r);
};
new Thread(t1).start();
new Thread(t2).start();
}
}
究其原因,两个线程 T1,T2 执行的复合操作没有受锁保护 ( 实际上就是前文银行转账的例子中犯过的错误 )。所以正确的做法是对复合操作整体加锁。比如:
var mutex = new Object();
Runnable t1 = () -> {
synchronized (mutex){
var last = testList.size() - 1; // x1
testList.remove(last); // x2
}
};
Runnable t2 = () -> {
synchronized (mutex){
var last = testList.size() -1; // y1
var r = testList.get(last); // y2
System.out.println(r);
}
};
// ...
在迭代操作中,类似的问题也仍然存在。无论是直接的 for 循环还是 for-each 循环,对容器的遍历方式是使用 Iterator。而使用迭代器本身也是先判断 ( hasNext ) 再读取 ( next ) 的复合过程。Java 对同步容器的迭代处理是:假设某一个线程在迭代的过程中发现容器被修改过了,则立刻失败 ( 也称及时失败 ),并抛出一个 ConcurrentModificationException
异常。
// 可能需要运行多次才能抛出 ConcurrentModificationException
Runnable t1 = () -> {
// 删除中间的元素
int mid = testList.size() / 2;
testList.remove(mid);
};
Runnable t2 = () -> {
for(var item : testList){
System.out.println(item);
}
};
new Thread(t1).start();
new Thread(t2).start();
类似地,想要不受打扰地迭代容器元素,我们也要在 for 循环的外面加锁,但是可能并不是一个好的主意。假如容器的规模非常大,或者每个元素的处理时间非常长,那么其它等待容器执行短作业的线程会因此陷入长时间的等待,这会带来活跃性问题。
一个可行的方法就是实现读写分离 —— 一旦有写操作,则重新拷贝一份新的容器副本,而在此期间所有读操作则仍在原来的容器中进行,实现 "读-读共享"。当读操作远多于写操作时,这种做法无疑可以大幅度地提高程序的吞吐量,见后文的并发容器 CopyOnWriteArrayList
。
不仅是显式的 for 循环会触发迭代。比如容器的 toString
方法在底层调用 StringBuilder.append()
方法依次将每一个元素的字符串拼接起来。除此之外,包括 equals
,containsAll
,removeAll
,retainAll
,乃至将容器本身作为参数的构造器,都隐含了对容器的迭代过程。这些间接的迭代错误都有可能抛出 ConcurrentModificationException
异常。
考虑到重量级锁对性能的影响,Java 后续提供了各种并发容器来改进同步容器的性能问题。同步容器将所有操作完全串行化。当锁竞争尤其激烈时,程序的吞吐量将大大降低。因此,使用并发容器来替代同步容器,在绝大部分情况下都算是一顿 "免费的午餐"。
ConcurrentHashMap
使用了更小的封锁粒度换取了更大程度的共享,这个封锁机制称之为分段锁 ( Lock Stripping )。简单点说,就是每一个桶由单独的锁来保护,操作不同桶的两个线程不需要相互等待。好处是,在高并发环境下,ConcurrentHashMap
带来了更大的吞吐量,但问题是,封锁粒度的减小削弱了容器的一致性语义,或称弱一致性 ( Weakly Consistent )。
比如说需要在整个 Map 上计算的 size()
和 isEmpty()
方法,弱一致性会使得这些方法的计算结果是一个过期值。这考虑到是一个权衡,因为在并发环境下,这两个方法的作用很小,因为其返回值总是不断变化的。因此,这些操作的需求被弱化了,以换取其它更重要的性能优化,比如 get
,put
,cotainsKey
,remove
等。
因此,除非一部分严谨的业务无法容忍弱一致性,否则并发的 HashMap 是要比同步 HashMap 更优的选择。
该工具在读操作远多于写操作的场合下能够提供更好的并发性能,在迭代时不需要对容器进行加锁或者复制。当发生修改时,该容器会创建并重新发布一个新的容器副本。在新副本创建之前,一切读操作仍然以旧的容器为准,因此这不会抛出 ConcurrentModificationException
问题。
相对的,如果频繁调用 add
,remove
,set
等方法,则该容器的吞吐量会大大降低,因为这些操作需要反复调用系统的 copy 方法复制底层的数组 ( 这也是没有设计 "CopyOnWriteLinkedList" 的原因,因为拷贝的效率会更低 )。同时,写入时复制的特性使得 CopyOnWriteArrayList
是弱一致性的。
阻塞队列,简单地说,就是当队列为空时,执行 take
操作会进入阻塞状态;当队列满时,执行 put
操作也会进入阻塞状态。阻塞队列也可以分有界队列和无界队列。无界队列永远不会充满,因此执行 put
方法永远不会进入阻塞状态。但是,如果生产者的执行效率远超过消费者,那么无界队列的无限扩张最终会耗尽内存。有界队列则可以保证当队列充满时,生产者被 put
阻塞,通过这种方式来让消费者赶上工作进度。
可以用阻塞队列实现生产者 — 消费者模式,最常见的生产者 — 消费者模式是线程池与工作队列的组合。这种模式将 "发布任务" 与 "领取任务" 解耦,最大的便捷是简化了复杂的负载管理,因为生产者和消费者的执行速度并不总是相匹配的。同时,生产者和消费者的角色是相对的。比如处于流水线中游的组件,它们既作为上游的消费者,也作为下游的生产者。
Java 库已经包含了关于阻塞队列的多种实现,它自身保证 put
和 take
操作是线程安全的。
LinkedBlockingQueue
和 ArrayBlockingQueue
:此两者的区别可以参考 Link 和 Array,见:ArrayBlockingQueue 和 LinkedBlockingQueue。两者均为 FIFO 的队列。PriorityBlockingQueue
:优先级队列,当我们希望以一定次序处理任务时,它要比 FIFO 队列更实用。SynchronousQueue
:译为同步阻塞队列。这个队列事实上没有缓存空间,而是维护一组可用的线程。当队列收到消息时,它可以立刻分配一个线程去处理。但是如果没有多余的工作线程,那么调用 put
或者 take
会立刻陷入阻塞状态。因此,仅当有足够多的消费者,并且总是有一个消费者准备好获取交付的工作时,才适合使用同步队列。下方的代码块是由 SynchronousQueue
实现的简易 Demo,每个线程会抢占式消费消息。
var chan = new SynchronousQueue();
var worker = new Thread(()->{
while(true){
try {
final var x = chan.take();
System.out.println("t1 consume: " + x);
} catch (InterruptedException e) {e.printStackTrace();}
}
});
var worker2 = new Thread(()->{
while(true){
try {
final var x = chan.take();
System.out.println("t2 consume: " + x);
} catch (InterruptedException e) {e.printStackTrace();}
}
});
worker.start();
worker2.start();
for(var i = 0 ; i < 10; i ++) chan.put(i);
基于所有权的角度去分析,生产者 — 消费者模式和阻塞队列一起促进了 串行的线程封闭。线程封闭对象只能由单个对象拥有,但可以通过在执行的最后发布该对象 ( 即表示之后不会再使用它 ),以表示 "转让" 所有权。
阻塞队列简化了转移的逻辑。除此之外,还可以通过 ConcurrentMap 的原子方法 remove,或者是 AtomicReference 的 compareAndSet ( 即 CAS 机制 ) 实现安全的串行线程封闭。
Java 6 之后增加了新的容器类型 —— Deque 和 BlockDeque,它们是对 Queue 以及 BlockingQueue 的拓展。Deque 实现了再队列头和队列尾的高效插入和移除,具体实现包括了 ArrayDeque 和 LinkedBlockingDeque。
双端队列适用于另一种工作模式 —— 工作窃取 ( Work Stealing )。比如,一个工作线程已经完成清空了自己的任务队列,它就可以从其它忙碌的工作线程的任务队列的尾部获取队列。这种模式要比生产者 —— 消费者具备更高的可伸缩性,因为工作线程不会在单个共享的任务队列上发生竞争。
工作窃取特别适合递归的并发问题,即执行一个任务时会产生更多的工作,比如:Web 爬虫,GC 垃圾回收时的图搜索算法。
线程可能会被阻塞,或者是暂停执行,原因有多种:等待 I/O 结束,等待获得锁,等待从 Thread.sleep
中唤醒,等待另一个线程的计算结果。被阻塞的线程必须要在这些 "外因" 被解决之后才有机会继续执行,即恢复到 RUNNABLE ( 也称就绪 ) 状态,等待被再次调度 CPU 执行。
这段描述其实对应了 JVM 线程的两个状态:BLOCKING 和 WAITING。
waiting
方法 释放已占据的锁。其它工作线程得以抢占此锁并执行,直到满足先验条件为真时,其它线程可以通过 notifyAll
方法重新令监视此锁的所有 WAITING 线程再次争锁并继续工作。wait
/ notify
/ notifyAll
构成了线程之间的协商机制,见下面的代码块。static class Status{public boolean v;}
public static void main(String[] args) throws InterruptedException{
var status = new Status();
status.v = false;
var mutex = new Object();
new Thread(()->{
synchronized (mutex){
System.out.println("get mutex");
// 此时检测的状态为 false, 进入 WAITING 状态。
if(!status.v) try {mutex.wait();} catch (InterruptedException e) {e.printStackTrace();}
// 被唤醒后重新检测状态为 true。
System.out.println(status.v);
}
}).start();
new Thread(()->{
synchronized (mutex){
// 将状态设置为 true,唤醒上面的线程
status.v = true;
mutex.notify();
}
}).start();
}
只有处于 RUNNABLE 状态的线程才会实际获得 CPU 使用权。
在 Java 中,一切会发生阻塞的方法都会被要求处理 InterruptedException
受检异常。调用阻塞方法的方法也会变成阻塞方法。线程内部有一个 boolean
类型的状态位表示中断,调用 interrupt
方法可以将该状态位标识为 true
。但是这不意味着该线程就会立刻中断:
InterruptedException
异常。Java 还提供了诸如信号量 ( Semaphore ),栅栏 ( Barrier ),以及闭锁 ( Latch ) 作为同步工具类,它们都包含了一定的结构性属性:这些状态将决定执行同步工具类的线程是执行还是等待。
闭锁是一种同步工具类,可以延迟线程的进度直到闭锁打开。在此之前,所有的线程必须等待,而在闭锁结束之后,这个锁将永久保持打开状态。这个特性适用于 需要确保某个任务的前序任务 ( 比如初始化 ) 全部完成之后才可以执行的场合,见下方的代码:Worker 线程等待另两个初始化线程准备就绪之后输出 p
的结果。
// class Point{int x,y;}
final var p = new Point();
final var p_latch = new CountDownLatch(2);
// Worker
new Thread(()->{
try {p_latch.await();} catch (InterruptedException e) {e.printStackTrace();}
System.out.printf("Point(x=%d,y=%d)",p.x,p.y);
}).start();
// Init x
new Thread(()->{
p.x = 1;
p_latch.countDown();
}).start();
// Init y
new Thread(()->{
p.y = 2;
p_latch.countDown();
}).start();
FutureTask 也可以拿来做闭锁,它实现了 Future 的语义,表示一个抽象的可生成结果的计算,一般需要由线程池驱动执行,表示一个异步的任务。
Runnable 接口表示无返回值的计算,Callable
代表有返回值的计算。
final var futurePoint = new FutureTask<>(()->new Point(1,2));
new Thread(futurePoint).start();
new Thread(()->{
try {
// 在 Callable 计算出结果之前阻塞
var p = futurePoint.get();
System.out.printf("Point(x=%d,y=%d)",p.x,p.y);
} catch (InterruptedException | ExecutionException e) {
e.printStackTrace();
}
}).start();
计数信号量用于控制某个资源的同时访问数量,通常用于配置有容量限制的资源池,或称有界阻塞容器。Semaphore 管理一组许可,线程在需要时首先获取许可,并在操作结束之后归还许可。如果许可数量被耗尽,那么线程则必须要阻塞到其它任意线程归还许可 ( 默认情况下遵循 Non-Fair 策略 ) 为止。特别地,当信号量的许可数为 1 时,则可认为是不可重入的互斥锁。
下面是一个利用信号量 + 同步容器实现的简易阻塞队列:
class BoundedBlockingQueue{
final private List list = Collections.synchronizedList(new LinkedList<>());
final private Semaphore se;
public BoundedBlockingQueue(int cap){
se = new Semaphore(cap);
}
public void enqueue(E e) throws InterruptedException {
se.acquire();
list.add(0,e);
}
public E dequeue(){
final var done = list.remove(0);
se.release();
return done;
}
@Override
public String toString() {
return "BoundedBlockingQueue{" +
"list=" + list +
'}';
}
}
栅栏 ( Barrier ) 类似于闭锁,同样都会阻塞到某一个事件发生。闭锁强调等待某个事件发生之后再执行动作,而栅栏更强调在某个事件发生之前等待其它线程。它可用于实现一些协议:"所有人在指定的时间去会议室碰头,等到所有的人到齐之后再开会",比如数据库事务的两阶段提交。
Java 提供了一个名为 CyclicBarrier
的栅栏,它指定了 N 个工作线程 反复地 在栅栏位置汇集。在某线程执行完毕之后,调用 await()
方法阻塞自身,以等待其它更慢的线程到达栅栏位置。当设定的 N 个线程均调用 await()
之后,栅栏将打开,此时所有的线程将可以继续向下执行代码,而栅栏本身的状态会重置,以便复用 ( 因而命名为 Cyclic- )。
见下面的代码,4 个线程并行执行初始化工作 ( 以随机时间的 sleep
模拟延迟 ),并等待所有线程初始化完毕之后同时打印信息。
final int N = 4;
final var barrier = new CyclicBarrier(N);
final Thread[] workers = new Thread[N];
for(var i : new Integer[]{0,1,2,3}){
var t = new Thread(()->{
try {
// 模拟随机的延时
var rdm = new Random().nextInt(1000);
Thread.sleep(rdm);
// 在所有其它线程到达之前阻塞
barrier.await();
// 所有线程到达之后执行,每个线程打印延时时间
System.out.printf("prepare for %d millis\n",rdm);
} catch (InterruptedException | BrokenBarrierException e) {
e.printStackTrace();
}
});
workers[i] = t;
t.start();
}
// 等待所有的任务并行执行完毕。
for(var worker : workers){worker.join();}
在不涉及 IO 操作和数据共享的计算问题当中,线程数量为 NCPU 或者 NCPU + 1 时会获得最优的吞吐量,更多的线程也不会带来带来帮助,甚至性能还会下降,因为 CPU 需要频繁的切换上下文。
一旦线程成功地到达栅栏,则 await()
方法会其标记为 "子线程"。CyclicBarrier
的构造器还接受额外的 Runnable 接口做回调函数,当所有线程全部到达栅栏之后,CyclicBarrier
会从子线程当中挑选出一个领导线程去执行它 ( 即,每一轮通过栅栏之后,它都会被执行且仅一次 ),我们可以在此实现日志记录等操作。
final var barrier = new CyclicBarrier(N,()->{
System.out.println("all runners ready");
});
为了用简单的例子说明问题,我们在这里特别强调并行 ( Parallel ) 任务,这些任务的计算过程是纯粹 ( Pure ) 的 —— 这样的函数被称之纯函数。无论它们何时被调用,被哪个线程调用,同样的输入永远得到同样的输出。纯函数不和外部环境交互,因此自然也就不存在竞态条件。
一个非常自然的想法是使用缓存 ( 或称记忆机制 Memorized ) 避免重复的运算。在纯粹的映射关系中,固定的输入总是对应固定的输出,因此使用 K-V 键值对来记忆结果再好不过了。我们基于 HashMap 给出最简单的一版实现,然后再探讨如何改进它们。
class MapCacheV1 {
private final HashMap cache = new HashMap<>();
public synchronized String getResult(Integer id){
var v = cache.get(id);
if (v == null){
// 设定中,这个静态方法具有 500ms 左右的延迟。
v = PURE.slowOperation(id);
cache.put(id,v);
}
return v;
}
}
尽管我们打算将 MapCache 用于无竞态条件的并行任务,但 getResult()
方法仍然加上了同步锁,因为 HashMap 本身不是线程安全的,cache
需要以安全的方式被并发访问。然而,这种做法无疑会使得 getResult()
方法变得十分笨重,因为原本可以并行的慢操作 PURE.slowOperation()
也被锁在了代码块内部。
最先想到的是使用更加高效的 ConcurrentHashMap
类取代线程不安全的 HashMap
,以获得免费的多线程性能提升:
class MapCacheV2 {
private final ConcurrentHashMap cache = new ConcurrentHashMap<>();
public String getResult(Integer id){
var v = cache.get(id);
if(v == null){
v = PURE.slowOperation(id);
cache.put(id,v);
}
return v;
}
}
同时,我们这一次取消掉了 getResult()
上的同步锁。这样,多线程可以并行地执行慢操作,只在修改 cache
时发生竞争。但这个缓存仍有一些不足 —— 当某个线程 A 在计算新值时 ( 即这 500ms 之内 ),其它线程并不知道。因此,多个线程有可能会计算同一个新值,甚至导致其它的计算任务无法进行。
针对这个问题,我们再一次提出改进。不妨让 cache
保存 "计算过程",而非值。这样,工作线程将有三种行为:
回顾前文在闭锁中提到的 FutureTask
类型,它适合用于当前的实现,见下方的代码:
class MapCacheV3 {
private final ConcurrentHashMap> cache = new ConcurrentHashMap<>();
public String getResult(Integer id) throws ExecutionException, InterruptedException {
// 获取一个计算任务,而非值
final var task = cache.get(id);
if(task == null){
final var newTask = new FutureTask<>(()-> PURE.slowOperation(id));
// cache.putIfAbsent()
cache.put(id,newTask);
newTask.run();
// 提交并执行任务。
return newTask.get();
}else return task.get();
}
}
MapCacheV3
的实现已经近乎完美了。唯一不足的是:我们对 cache
的操作仍然是 "先判断后执行" 的复合操作,但现在 getResult
并没有同步锁的保护。两个线程仍然同时调用 cache.get()
并判空,并开始执行重复的计算。
下面的版本给出了最终的解决方案:使用 ConcurrentMap
的 putIfAbsent()
原子方法修复可能重复添加计算任务的问题。
class MapCacheV4 {
private final ConcurrentHashMap> cache = new ConcurrentHashMap<>();
public String getResult(Integer id) throws ExecutionException, InterruptedException {
final var task = cache.get(id);
if(task == null){
final var newTask = new FutureTask<>(()-> PURE.slowOperation(id));
// put 和 putIfAbsent 方法均会返回此 Key 对应的上一个旧值 Value。
// 如果 put 的是一个新的 Key,则返回值为 null。
final var running = cache.putIfAbsent(id,newTask);
if(running == null) {newTask.run();return newTask.get();} else return running.get();
}else return task.get();
}
}
值得注意的是,一旦 cache
存储的是计算任务而非值,那么就可能存在缓存污染的问题。一旦某个 FutureTask 的计算被取消,或者失败,应当及时将它从缓存中移除以保证将来的计算成功,而不是放任其驻留在缓存内部返回失败的结果。
缓存思想几乎应用在各个地方。比如在 Web 服务中,用户的数据往往不会总是直接来自数据库,而是 Redis 这样的消息中间件。在实际的应用环境下,还有更加复杂的问题需要被考虑到,比如缓存内容过时 ( expired ),或者是定期清理缓存空间等。
到此是《 Java 并发编程实战》的第一部分。之前还介绍了:
下面的并发编程中列举了安全并发的实用规则:
final
修饰域。