面试官: 说一下线程和进程的区别?
候选人:
嗯,好~
面试官: 聊一下并行和并发有什么区别?
候选人:
是这样的~~
现在都是多核CPU,在多核CPU下
并发是同一时间应对多件事情的能力,多个线程轮流使用一个或多个CPU
并行是同一时间动手做多件事情的能力,4核CPU同时执行4个线程
面试官: 如果在Java中创建线程有哪些方式?
候选人:
在Java中一共有四种常见的创建方式,分别是:继承Thread类、实现runnable接口、实现Callable接口、线程池创建线程。通常情况下,我们项目中都会采用线程池的方式创建线程。
面试官: 好的,刚才你说的runnable 和 callable 两个接口创建线程有什么不同呢?
候选人:
是这样的~
最主要的两个线程一个是有返回值,一个是没有返回值的。
Runnable 接口run方法无返回值;Callable接口call方法有返回值,是个泛型,和Future、FutureTask配合可以用来获取异步执行的结果
还有一个就是,他们异常处理也不一样。Runnable接口run方法只能抛出运行时异常,也无法捕获处理;Callable接口call方法允许抛出异常,可以获取异常信息
在实际开发中,如果需要拿到执行的结果,需要使用Callable接口创建线程。调用FutureTask.get()可以得到返回值,此方法会阻塞主线程的继续往下执行,如果不调用不会阻塞。
面试官: run()和start()有什么区别?
候选人:
面试官: 线程包括哪些状态,状态之间是如何变化的?
候选人:
在JDK中的Thread类中的枚举State里面定义了6种线程的状态分别是:新建、可运行、终结、阻塞、等待和有时限等待六种。
关于线程的状态切换情况比较多。我分别介绍一下
当一个线程对象被创建,但还未被调用 start 方法时处于新建状态,调用了 start 方法,就会由新建进入可运行状态。如果线程内部代码已经执行完毕,由可运行进入终结状态。当然这些是一个线程正常执行情况。
如果线程获取锁失败后,由可运行进入 Monitor 的阻塞队列阻塞,只有当持锁线程释放锁时,会按照一定规则唤醒阻塞队列中的阻塞线程,唤醒后的线程进入可运行状态
如果线程获取锁成功后,但由于条件不满足,调用了 wait()方法,此时从可运行状态释放锁等待状态,当其它持锁线程调用 notify9() 或 notifyAll()方法,会恢复为可运行状态
还有一种情况是调用 sleep(long)方法也会从可运行状态进入有时限等待状态,不需要主动唤醒,超时时间到自然恢复为可运行状态
面试官: 好的,我现在举一个场景,你来分析一下怎么做,新建T1、T2、T3 三个线程,如何保证它们按顺序执行?
候选人:
嗯~~,我思考一下(适当的思考或想一下属于正常情况,脱口而出反而太假[背诵痕迹])
可以这么做,在多线程种有多种方法让线程按特定顺序执行,可以用线程的join()方法在一个线程中启动另一个线程,另外一个线程完成该线程继续执行。
比如说:
使用join方法,T3调用T2,T2调用T1,这样就能确保T1就会先完成而T3最后完成
面试官: notify()和notifyAll()有什么区别?
候选人:
面试官: 嗯,好的,刚才你说的线程中的 wait 和 sleep 方法有什么不同呢?
候选人:
wait(),wait(long) 和 sleep(long) 的效果都是让当前线程暂时放弃 CPU 的使用权,进入阻塞状态。
不同点主要有三个方面:
第一:方法归属不同
sleep(long)是 Thread 的静态方法。而wait(),是 Object 的成员方法,每个对象都有
第二:醒来时机不同
线程执行sleep(long)会在等待相应毫秒后醒来,而wait()需要被 notify 唤醒,wait()如果不唤醒就一直等下去
第三:锁特性不同
wait 方法的调用必须先获取 wait 对象的锁,而sleep 则无此限制
wait 方法执行后会释放对象锁,允许其它线程获得该对象锁(相当于我放弃 cpu,但你们还可以用)
而sleep 如果在 synchronized 代码块种执行,并不会释放对象锁(相当于我放弃 cpu,你们也用不了)
面试官: 那如何停止一个正在运行的线程呢?
候选人:
有三种方式可以停止线程
第一:可以使用退出标志,使线程正常退出,也就是当run方法完成后线程终止,一般我们加一个标记
第二:可以使用线程的stop方法强行终止,不过一般不推荐,这个方法已作废
第三:可以使用线程的interrupt方法中断线程,内部其实也是使用中断标志来中断线程
我们项目种使用的话,建议使用第一种或第三种方式中断线程
面试官: 讲一下synchronized关键字的底层原理?
候选人:
嗯~~好的,
synchronized 底层使用的JVM级别的级别中的Monitor 来决定当前线程是否获得了锁,如果某一个线程获得了锁,在没有释放锁之前,其他线程是不能得到锁的。synchronized 属于悲观锁。
synchronized 因为需要依赖JVM级别的Monitor,相对性能也比较低。
面试官: 好的,你能具体说下Monitor 吗?
候选人:
monitor对象存在于每个Java对象的对象头中,synchronized 锁便是通过这种方式获取锁的,也是为什么Java对象中任意对象可以作为锁的原因
monitor内部维护了三个变量
只有一个线程获取到的标志就是在monitor中设置了Owner,一个monitor中只能有一个Owner
在上锁的过程中,如果有其他线程也来抢锁,则进入EntryList 进行阻塞,当获得锁的线程执行完了,释放了锁,就会唤醒EntryList 中等待的线程竞争锁,竞争的时候是非公平的。
面试官: 好的,那关于synchronized 的锁升级的情况了解吗?
候选人:
嗯,知道一些(要谦虚)
Java中的synchronized有偏向锁、轻量级锁、重量级锁三种形式,分别对应了锁只被一个线程持有、不同线程交替持有锁、多线程竞争锁三种情况。
重量级锁:底层使用的Monitor实现,里面涉及到了用户态和内核态的切换、进程的上下文切换,成本较高,性能比较低。
轻量级锁:线程加锁的时间是错开的(也就是没有竞争),可以使用轻量级锁来优化。轻量级修改了对象头的锁标志,相对重量级锁性能提升很多。每次修改都是CAS操作,保证原子性
偏向锁:一段很长的时间内都只被一个线程使用锁,可以使用偏向锁,在第一次获得锁时,会有一个CAS操作,之后该线程再获取锁,只需要判断mark word中是否是自己的线程id即可,而不是开销相对较大的CAS命令
一旦锁发生了竞争,都会升级为重量级锁
面试官: 你谈谈 JMM(Java内存模型)
候选人:
面试官: CAS 你知道吗?
候选人:
面试官: 乐观锁和悲观锁的区别?
候选人:
面试官: 请谈谈你对 volatile 的理解?
候选人:
①保证线程间的可见性
用volatile修饰共享变量,能够防止编译器等优化发生,让一个线程对共享变量的修改对另一个线程可见
②禁止进行指令重排序
指令重排:用volatile修饰共享变量会在读、写共享变量时加入不同的屏障,阻止其他读写操作越过屏障,从而达到阻止重排序的效果
面试官: 什么是AQS?
候选人:
面试官: 好的,你刚才说了下synchronized它在高并发量的情况下,性能不高,在项目中该如何控制使用锁呢?
候选人:
嗯,其实,在高并发下,我们可以使用ReentrantLock来加锁。
面试官: 嗯,那你说下ReentrantLock的使用方式和底层原理?
候选人:
好的,ReentrantLock是一个可重入锁;调用 lock 方法获取了锁之后,再次调用 lock,是不会再阻塞,内部直接增加重入次数就行了,标识这个线程已经重复获取一把锁而不需要等待锁的释放。
ReentrantLock是属于juc包下的类,属于api层面的锁,跟synchronized一样,都是悲观锁。通过lock()用来获取锁,unlock()释放锁。
它的底层实现原理主要利用CAS+AQS队列来实现。它支持公平锁和非公平锁,两者的实现类似
构造方法接受一个可选的公平参数(默认非公平锁),当设置为true时,表示公平锁,否则为非公平锁。公平锁的效率往往没有非公平锁的效率高。
面试官: 好的,刚才你说了CAS和AQS,你能介绍一下吗?
候选人:
好的。
CAS的全称是:Compare And Swap(比较再交换);它体现的一种乐观锁的思想,在无锁状态下保证线程操作数据的原子性。
AQS的话,其实就一个jdk提供的类AbstractQueuedSynchronizer,是阻塞式和相关的同步器工具的框架。
内部有一个属性state来表示资源的状态,默认state等于0,表示没有获取锁,state等于1的时候才标明获取到了锁。通过cas机制设置state状态
在它的内部还提供了基于 FIFO 的等待队列,是一个双向列表,其中
其实我们刚刚聊的ReentrantLock底层的实现就是一个AQS。
面试官: synchronized和Lock有什么区别 ?
候选人:
嗯~~,好的,主要有三个方面不太一样
第一,语法层面
第二,功能层面
第三、性能层面
综合来看,需要根据不同的场景来选择不同的锁的使用。
面试官: 死锁产生的条件是什么 ?
候选人:
嗯,是这样的,一个线程需要同时获取多把锁,这时就容易发生死锁,举个例子来说:
t1 线程获得A对象锁,接下来想获取B对象的锁
t2 线程获得B对象锁,接下来想获取A对象的锁
这个时候t1线程和t2线程都在互相等待对方的锁,就产生了死锁
面试官: 那如果产生了这样的,如何进行死锁诊断 ?
候选人:
这个也容易,我们只需要通过jdk自动的工具就能搞定
我们可以先通过jps来查看当前Java程序运行的进程id
然后通过jstack来查看这个进程id,就能展示出来死锁的问题,并且,可以定位代码的具体行号范围,我们再去找到对应的代码进行排查就行了。
另外还有可视化工具jconsole、VisualV
本文作者: 接《集合相关面试题》
面试官: 那你能聊一下ConcurrentHashMap的原理吗 ?
候选人:
好的,
ConcurrentHashMap 是一种线程安全的高效Map集合,jdk1.7和1.8也做了很多调整。
在jdk1.7中 ConcurrentHashMap 里面包含一个 Segment 数组。Segment 的结构和HashMap类似,是一种数组和链表结构,一个Segment 包含一个 HashEntry 数组,每个 HashEntry 是一个链表结构的元素,每个 Segment 守护着一个HashEntry数组里的元素,当对 HashEntry 数组的数据进行修改时,必须首先获得对应的 Segment 的锁。
Segment 是一种可重入的锁 ReentrantLock,每个 Segment 守护一个 HashEntry 数组里的元素,当对 HashEntry 数组的数据进行修改时,必须首先获得对应的 Segment 锁
在jdk1.8中的 ConcurrentHashMap 做了较大的优化,性能提升了不少。首先是它的数据结构与jdk1.8的hashMap数据结构完全一致。其次是放弃了Segment臃肿的设计,取而代之的是采用Node + CAS + Synchronized来保证并发安全进行实现,synchronized只锁定当前链表或红黑二叉树的首节点,这样只要hash不冲突,就不会产生并发,效率得到提升。
面试官: 导致并发程序出现问题的根本原因是什么 ?
候选人:
**面试官:**好的,那该如何保证Java程序在多线程的情况下执行安全呢?
候选人:
嗯,刚才讲过了导致线程安全的原因,如果解决的话,jdk中也提供了很多的类帮助我们解决多线程安全的问题,比如:
面试官: 线程池的核心参数有哪些 ?
候选人:
在线程池中一共有7个核心参数:
在拒绝策略中又有4种拒绝策略
当线程数过多以后,第一种是抛线程、第二种是由调用者执行任务、第三是丢弃当前的任务,第四是丢弃最早排队任务。默认是直接抛异常。
面试官:线程池的执行原理知道吗?
候选人:
嗯~,它是这样的
首先判断线程池里的核心线程是否都在执行任务,如果不是则创建一个新的工作线程来执行任务。如果核心线程都在执行任务,则线程池判断工作队列是否已满,如果工作队列没有满,则将新提交的任务存储在这个工作队 列里。如果工作队列满了,则判断线程池里的线程是否都处于工作状态,如果没有,则创建一个新的工作线程来执行任 务。如果已经满了,则交给拒绝策略来处理这个任务。
面试官: 线程池有哪些常见的阻塞队列 ?
候选人:
workQueue - 当没有空闲核心线程时,新来任务会加入此队列排队,队列满会创建救急线程执行任务
ArrayBlockingQueue和 LinkedBlockingQueue的区别
ArrayBlockingQueue:强制有界、底层是数组、提前初始化 Node 数组、Node需要是提前创建好的、一把锁
LinkedBlockingQueue:默认无界,支持有界、底层是链表、是懒惰的,创建节点的时候添加数据、入队会生成新 Node、两把锁(头尾)
面试官: 如何确定核心线程池呢 ?
候选人:
是这样的,我们公司当时有一些规范,为了减少线程上下文的切换,要根据当时部署的CPU核数来决定,我们规则是:CPU核数 + 1就是最终的核心线程数
面试官: 线程池的种类有哪些 ?
候选人:
嗯!是这样
在jdk中默认提供了4种方式创建线程池
第一个是:newCachedThreadPool创建一个可缓存线程池,如果线程池长度超过处理需要,可灵活回收空闲线程,若无可回收,则新建线程。
第二个是:newFixedThreadPool创建一个定长线程池,可控制线程最大并发数,超出的线程会在队列中等待。
第三个是:newScheduledThreadPool创建一个定长线程池,支持定时及周期性任务执行。
第四个是:newSingleThreadExecutor创建了一个单线程化的线程池,它只会用唯一的工作线程来执行任务,保证所有任务按照指定顺序(FIFO,LIFO,优先级)执行。
面试官: 为什么不建议用Executors创建线程池 ?
候选人:
好的,其实这个事情在阿里提供的开发手册《Java开发手册-嵩山版》中也提到了
主要原因是如果使用Executors创建线程池的话,它允许的请求队列默认长度是Integer.MAX_VALUE,这样的话,有可能导致堆积大量的请求,从而导致OOM(内存溢出)。
所以,我们一般推荐使用ThreadPoolExecutor来创建线程池,这样可以明确规定线程池的参数,避免资源的耗尽。
面试官: 你在项目中哪里用了多线程 ?
候选人:
嗯~~,我想一下当时的场景[根据自己简历上的模块设计多线程场景]
参考场景一:
es数据批量导入
在我们项目上线前,我们需要把数据量的数据一次性的同步到es索引库中,但是当时的数据好像是1000万左右,一次性读取数据肯定不行(omm异常),如果分批执行的话,耗时也太久了。所以,当时我就想到可以使用线程池的方式导入,利用CountDownLatch+Future来控制,就能大大提升导入的时间。
参考场景二:
在我做的那个xx电商网站的时候,里面有一个数据汇总的功能,在用户下单之后需要查询订单信息,也需要获得订单中的商品详细信息(可能是多个),还需要查看物流发货信息。因为它们三个对应的分别三个微服务,如果一个一个的操作的话,互相等待的时间比较长。所以,我当时就想到可以使用线程池,让多个线程同时处理,最终再汇总结果就可以了,当然里面需要用到Future来获取每个线程执行之后的结果才行。
参考场景三:
《黑马头条》项目中使用的
我当时做了一个文章搜索的功能,用户输入关键字要搜索文章,同时需要保存用户的搜索记录(搜索历史),这块我设计的时候,为了不影响用户的正常搜索,我们采用的异步的方式进行保存的,为了提升性能,我们加入了线程池,也就说在调用异步方法的时候,直接从线程池中获取线程使用
面试官: 如何控制某一个方法允许并发访问线程的数量 ?
候选人:
嗯~~,我想一下
在jdk中提供了一个Semaphore类(信号量)
它提供了两个方法,semaphore.acquire()请求信号量,可以限制线程的个数,是一个正数,如果信号量是-1,就代表已经用完了信号量,其他线程需要阻塞了
第二个方法是semaphore.release(),代表是释放了一个信号量,此时信号量的个数+1
面试官: 谈谈你对ThreadLocal的理解 ?
候选人:
嗯,是这样的~~
ThreadLocal主要功能有两个,第一个是可以实现资源对象的线程隔离,让每个线程各用各的资源对象,避免争用引发的线程安全问题,第二个是实现了线程内的资源共享
面试官: 好的,那你知道ThreadLocal的底层原理实现吗?
候选人:
嗯,知道一些~
在ThreadLocal内部维护了一个一个ThreadLocalMap类型的成员变量,用来存储资源对象
当我们调用set方法,就是以ThreadLocal自己作为key,资源对象作为value,放入当前线程的ThreadLocalMap集合中
当调用get方法,就是以ThreadLocal自己作为key,到当前线程中查找关联的资源值
当调用remove方法,就是以ThreadLocal自己作为key,移出当前线程相关联的资源值
面试官: 好的,那关于ThreadLocal会导致内存溢出这个事情,了解吗?
候选人:
嗯,我之前看过源码,我想一下~~
是因为ThreadLocalMap中的key被设计为弱引用,它是被动的被GC调用释放key,不过关键的是只有key可以得到内存释放,而value不会,因为value是一个强引用。
在使用ThreadLocal时都把它作为静态变量(即强引用),因此无法被动依靠GC回收,建议主动地remove释放key,这样就能避免内存溢出