1.减少了创建和销毁线程的次数,每个工作线程都可以被重复利用,可执行多个任务。
2.可以根据系统的承受能力,调整线程池中工作线程的数目,防止因为消耗过多的内存,而把服务器累趴(每个线程需要大约1MB内存,线程开的越多,消耗的内存也就越大,最后死机)。
java里线程池的顶级接口是Executor,但是严格意义上讲Executor并不是一个线程池,而只是一个执行线程的工具。
真正的线程池接口是ExecutorService。
ExecutorService:真正的线程池接口。
ScheduledExecutorService:和Timer/TimerTask类似,解决那些需要重复执行的任务
ThreadPoolExecutor:ExecutorService的默认实现
ScheduledThreadPoolExecutor:继承ThreadPoolExecutor的ScheduledExecutorService接口实现,周期性任务调度的类实现。
线程池配置比较复杂,很有可能配置的线程池不是较优的,因此在Executors类里提供了一些静态工厂,生成一些常用的线程池。
public class MyThread extends Thread{
@Override
public void run(){
System.out.println(Thread.currentThread().getName()+"正在执行。。");
}
}
public class TestSingleThreadExecutor{ public static void main(String[] arags){
//创建一个可重用固定线程数的线程池
ExecutorService pool = Executors.newSingleThreadExecutor();
//ExecutorService pool = Executors.newCachedThreadPool();
Thread t1 = new MyThread();
Thread t2 = new MyThread();
Thread t3 = new MyThread();
Thread t4 = new MyThread();
Thread t5 = new MyThread();
//将线程放入池中进行执行
pool.execute(t1);
pool.execute(t2);
pool.execute(t3);
pool.execute(t4);
pool.execute(t5);
//关闭线程池
pool.shutdown();
}
}
newScheduledThreadPool
public class TestScheduledThreadPoolExecutor{ public static void main(String[] args){
ScheduledThreadPoolExecutor exec = new ScheduledThreadPoolExecutor(1);
exec.scheduleAtFixRate(new Runnable(){//每隔一段时间就触发异常
@Override
public void run(){
System.out.println("===============");
}
}, 1000, 5000, TimeUnit.MILLISECONDS);
exec.scheduleAtFixedRate(new Runnable(){
@Override
public void run(){
System.out.println(System.nanoTime());
}
}, 1000, 2000, TimeUnit.MILLISECONDS);
}
}
ThreadPoolExecutor的完整构造方法的签名是:ThreadPoolExecutor(int corePoolSize,
int maximumPoolSize, long keepAliveTime, TimeUnit unit,
BlockingQueue workQueue, ThreadFactory threadFactory,
RejectedExecutionHandler handler).
ThreadPoolExecutor是Executors类的底层实现。
JDK文档:“强烈建议程序员使用较为方便的Executors工厂方法Executors.newCachedThreadPool()(无界线程池,可以进行自动线程回收)、
Executors.newFixedThreadPool(int)(固定大小线程池)Executors.newSingleThreadExecutor()(单个后台线程),它们均为大多数使用场景预定义了设置。”
源码:
ExecutorService newFixedThreadPool(int nThreads):固定大小线程池。
public static ExecutorService newFixedThreadPool(int nThreads){
return new ThreadPoolExecutor(nThreads, nThreads,
0L, TimeUnit.MILLISECONDS,
new LinkedBlockingQueue<Runnable>());
}
corePoolSize和maximumPoolSize的大小是一样的(实际上,如果使用无界queue的话,maximumPoolSize参数是没有意义的)
keepAliveTime和unit的值:说明该实现不想keep alive
最后的BlockingQueue选择了LinkedBlockingQueue,该queue有一个特点,它是无界的。
ExecutorService newSingleThreadExecutor():单线程
public static ExecutorService newSingleThreadExecutor(){
return new FinalizableDelegatedExecutorService(
new ThreadPoolExecutor(1,1
0L, TimeUnit.MILLISECONDS,
new LinkedBlockingQueue<Runnable>()));
}
ExecutorService newCachedThreadPool():无界线程池,可以进行自动线程回收
public static ExecutorService newCachedThreadPool(){
return new ThreadPoolExecutor(0, Integer.MAX_VALUE,
60L, TimeUnit.SECONDS,
new SynchronousQueue<Runnable>());
}
无界线程池的maximumPoolSize为bigInteger。BlockingQueue使用的是SynchronousQueue。
该Queue中,每个插入操作必须等待另一个线程的对应移除操作。
对于BlockingQueue workQueue,一共有三种类型的queue。
所有BlockingQueue都可用于传输和保持提交的任务。可以使用此队列与池大小进行交互。
如果运行的线程少于corePoolSize,则Executor始终首选添加新的线程,而不进行排队。
(如果当前运行的线程小于corePoolSize,则任务根本不会存放,添加到queue中,而是直接开始运行)
如果运行的线程等于或多于corePoolSize,则Executor始终首选将请求加入队列,而不添加新的线程。
如果无法将请求加入队列,则创建新的线程,除非创建此线程超出maximumPoolSize,在这种情况下,任务将被拒绝。
工作队列的默认选项是SynchronousQueue,它将任务直接提交给线程而不保持它们。
在此,如果不存在可用于立即运行任务的线程,则试图把任务加入队列将失败,因此会构造一个新的线程。
此策略可以避免在处理可能具有内部依赖性的请求集时出现锁。
直接提交通常要求无界maximumPoolSizes以避免拒绝新提交的任务。
当命令以超过队列所能处理的平均数连续到达时,此策略允许无界线程具有增长的可能性。
使用无界队列(例如,不具有预定义容量的LinkedBlockingQueue)将导致在所有corePoolSize线程都忙时新任务在队列中等待。
这样,创建的线程就不会超过corePoolSize。(因此,maximumPoolSize的值也就无效了。)
当每个任务独立于其他任务,即任务执行互不影响时,适合于使用无界队列;例如,在web服务器中。
这种排队可用于处理瞬态突发请求,当命令以超过队列所能处理的平均数连续到达时,此策略允许无界线程具有增长的可能性。
当使用有限的maximumPoolSizes时,有界队列(如ArrayBlockingQueue)有助于防止资源耗尽,但是可能较难调整和控制。
队列大小和最大池大小可能需要相互折衷:使用大型队列和小型池可以最大限度地降低CPU使用率、操作系统资源和上下文切换开销,但是可能导致人工降低吞吐量。
如果任务频繁阻塞(例如,它们是I/O边界),则系统可能为超过许可的更多线程安排时间。
使用小型队列通常要求较大的池大小,CPU使用率较高,但是可能遇到不可接受的调度开销,这样也会降低吞吐量。
例一:使用直接提交策略,即SynchronousQueue。
首先SynchronousQueue是无界的,即存储任务的能力是没有限制的,但是由于该Queue本身的特性,在某次添加元素后必须等待其他线程取走后才能继续添加。
在这里不是核心线程便是新创建的线程。
使用以下参数构造ThreadPoolExecutor:
java
new ThreadPoolExecutor(
2, 3, 30, TimeUnit.SECONDS, new SynchronousQueue<Runnable>(),
new RecorderThreadFactory("CookieRecorderPool"),
new ThreadPoolExecutor.CallerRunsPolicy());
当核心线程已经有2个正在运行。
1. 此时,继续来了一个任务(A),根据前面介绍的“如果运行的线程等于或多于corePoolSize,则Executor始终首选将请求加入队列,而不添加新的线程”,所以A被添加到queue中。
2. 又来了一个任务(B),且核心2个线程还没有忙完,会先尝试加入队列,但是由于使用的是SynchronousQueue,所以一定无法加入进去。
3. 此时便满足了上面提到的“如果无法将请求加入队列,则创建新的线程,除非创建此线程超出maximumPoolSize,在这种情况下,任务将被拒绝。”所以必然会创建一个线程来运行这个任务。
4. 如果这三个任务都还没完成,连续来了两个任务,第一个加入queue中,后一个到来时,queue中无法插入,而线程数达到了maximumPoolSize,所以只好执行异常策略了。
所以在使用SynchronousQueue通常要求maximumPoolSize是无界的,这样就可以避免上述情况发生(如果希望限制就直接使用有界队列)。
对于使用SynchronousQueue的作用:此策略可以避免在处理可能具有内部依赖性的请求集时出现锁。
即,任务A1,A2有内部关联,A1需要先运行,那么先提交A1,再提交A2,当使用SynchronousQueue时可以保证,A1必定先被执行前,A2不可能添加入queue中。
例二:使用无界队列策略,即LinkedBlockingQueue。
这个就拿newFixedThreadPool来说,根据前文提到的规则:
如果运行的线程少于corePoolSize,则Executor始终首选添加新的线程,而不进行排队。
如果运行的线程多于或等于corePoolSize,则Executor始终首选将请求加入队列,而不添加新的线程。
如果无法将请求加入队列,则创建新的线程,除非创建此线程超过maximumPoolSize,这时,任务将被拒绝。。
不像SynchronousQueue那样有其自身的特点,对于无界队列来说,总是可以加入的(资源耗尽另说)。即,永远也不会触发产生新的线程!
corePoolSize大小的线程数会一直运行,忙完当前的,就从队列中拿任务开始运行。所以要防止任务疯长,比如任务运行的时间较长,而添加任务的速度远远超过处理任务的时间,而且还不断增加,没多久就爆了。
例三:有界队列,使用ArrayBlockingQueue。
这个是最为复杂 的使用,JDK不推荐使用,与上面的相比,最大的特点是可以防止资源耗尽。