JVM内存模型深度剖析

一、JVM整体结构及内存模型

(查看指令码:javap -c/v matn.class > math.txt)-jvap -v可看常量池
本地方法栈:存放c源码方法,比如:Thread.start().start0(),native修饰
栈线程:存放当前线程变量以及方法内存,如main方法,compute方法,每个方法为一个栈帧
- 局部变量:存放变量,从1开始,0为this该类对象
- 操作数栈:将变量值取出来进行加减乘除操作
- 动态链接:程序加载过程中,将符号引用改为直接引用
-方法出口:记录当前方法执行完成后应该返回到主方法第几步继续执行主方法,相当于主方法的程序计数器
堆:存放对象
方法区:也叫元空间,加载类信息,存放常量,静态变量以及类元信息
程序计数器:存储当前线程走到第几步
字节码引擎:1.每执行一行代码程序计数器加1,2.执行字节码

image.png

二、JVM内存参数设置

image.png

Spring Boot程序的JVM参数设置格式(Tomcat启动直接加在bin目录下catalina.sh文件里):

 1 java‐Xms2048M‐Xmx2048M‐Xmn1024M‐Xss512K‐XX:MetaspaceSize=256M‐XX:MaxMetaspaceSize=256M‐jarmicroservice‐eurek a‐server.jar

StackOverflowError示例:

publicclassStackOverflowTest{
static int count = 0;
static void redo() { count++;
redo();
public static void main(String[] args) {
12 try{
13 redo();
14 } catch (Throwable t) {
15 t.printStackTrace();
16 System.out.println(count);
17 }
18 }
19 }
20
21 运行结果:
22 java.lang.StackOverflowError
23 at com.tuling.jvm.StackOverflowTest.redo(StackOverflowTest.java:12)
24 at com.tuling.jvm.StackOverflowTest.redo(StackOverflowTest.java:13)
25 at com.tuling.jvm.StackOverflowTest.redo(StackOverflowTest.java:13)

结论: -Xss设置越小count值越小,说明一个线程栈里能分配的栈帧就越少,但是对JVM整体来说能开启的线程数会更多
JVM内存参数大小该如何设置? JVM参数大小设置并没有固定标准,需要根据实际项目情况分析,给大家举个例子
日均百万级订单交易系统如何设置JVM参数


image.png

一天百万级订单这个绝对是现在顶尖电商公司交易量级,对于这种量级的系统我们该如何设置JVM参数了?

我们可以试着估算下,其实日均百万订单主要也就是集中在当日的几个小时生成的,我们假设是三小时,也就是每秒大概生成100单左 右。
这种系统我们一般至少要三四台机器去支撑,假设我们部署了四台机器,也就是每台每秒钟大概处理完成25单左右,往上毛估每秒处理30 单吧。

也就是每秒大概有30个订单对象在堆空间的新生代内生成,一个订单对象的大小跟里面的字段多少及类型有关,比如int类型的订单id和用 户id等字段,double类型的订单金额等,int类型占用4字节,double类型占用8字节,初略估计下一个订单对象大概1KB左右,也就是说 每秒会有30KB的订单对象分配在新生代内。

真实的订单交易系统肯定还有大量的其他业务对象,比如购物车、优惠券、积分、用户信息、物流信息等等,实际每秒分配在新生代内的 对象大小应该要再扩大几十倍,我们假设30倍,也就是每秒订单系统会往新生代内分配近1M的对象数据,这些数据一般在订单提交完的 操作做完之后基本都会成为垃圾对象。

我们一般线上服务器的配置用得较多的就是双核4G或4核8G,如果我们用双核4G的机器,因为服务器操作系统包括一些后台服务本身可 能就要占用1G多内存,也就是说给JVM进程最多分配2G多点内存,刨开给方法区和虚拟机栈分配的内存,那么堆内存可能也就能分配到 1G多点,对应的新生代内存最后可能就几百M,那么意味着没过几百秒新生代就会被垃圾对象撑满而出发minor gc,这么频繁的gc对系 统的性能还是有一定影响的。

如果我们选择4核8G的服务器,就可以给JVM进程分配四五个G的内存空间,那么堆内存可以分到三四个G左右,于是可以给新生代至少分 配2G,这样算下差不多需要半小时到一小时才能把新生代放满触发minor gc,这就大大降低了minor gc的频率,所以一般我们线上服务 器用得较多的还是4核8G的服务器配置。

如果系统业务量继续增长那么可以水平扩容增加更多的机器,比如五台甚至十台机器,这样每台机器的JVM处理请求可以保证在合适范 围,不至于压力过大导致大量的gc。

有的同学可能有疑问说双核4G的服务器好像也够用啊,无非就是minor gc频率稍微高一点呀,不是说minor gc对系统的影响不是特别大 吗,我成本有限,只能用这样的服务器啊。

其实如果系统业务量比较平稳也能凑合用,如果经常业务量可能有个几倍甚至几十倍的增长,比如时不时的搞个促销秒杀活动什么的,那 我们思考下会不会有什么问题。

假设业务量暴增几十倍,在不增加机器的前提下,整个系统每秒要生成几千个订单,之前每秒往新生代里分配的1M对象数据可能增长到 几十M,而且因为系统压力骤增,一个订单的生成不一定能在1秒内完成,可能要几秒甚至几十秒,那么就有很多对象会在新生代里存活 几十秒之后才会变为垃圾对象,如果新生代只分配了几百M,意味着一二十秒就会触发一次minor gc,那么很有可能部分对象就会被挪到 老年代,这些对象到了老年代后因为对应的业务操作执行完毕,马上又变为了垃圾对象,随着系统不断运行,被挪到老年代的对象会越来 越多,最终可能又会导致full gc,full gc对系统的性能影响还是比较大的。 如果我们用的是4核8G的服务器,新生代分配到2G以上的水平,那么至少也要几百秒才会放满新生代触发minor gc,那些在新生代即便存 活几十秒的对象在minor gc触发的时候大部分已经变为垃圾对象了,都可以被及时回收,基本不会被挪到老年代,这样可以大大减少老年 代的full gc次数。


image.png

三、逃逸分析 JVM的运行模式有三种:

  • 解释模式(Interpreted Mode):只使用解释器(-Xint 强制JVM使用解释模式),执行一行JVM字节码就编译一行为机器码
  • 编译模式(Compiled Mode):只使用编译器(-Xcomp JVM使用编译模式),先将所有JVM字节码一次编译为机器码,然 后一次性执行所有机器码
  • 混合模式(Mixed Mode):依然使用解释模式执行代码,但是对于一些 "热点" 代码采用编译模式执行,JVM一般采用混合模 式执行代码

解释模式启动快,对于只需要执行部分代码,并且大多数代码只会执行一次的情况比较适合;编译模式启动慢,但是后期执行速度快,而 且比较占用内存,因为机器码的数量至少是JVM字节码的十倍以上,这种模式适合代码可能会被反复执行的场景;混合模式是JVM默认采 用的执行代码方式,一开始还是解释执行,但是对于少部分 “热点 ”代码会采用编译模式执行,这些热点代码对应的机器码会被缓存起 来,下次再执行无需再编译,这就是我们常见的JIT(Just In Time Compiler)即时编译技术。 在即时编译过程中JVM可能会对我们的代码最一些优化,比如对象逃逸分析等

对象逃逸分析:就是分析对象动态作用域,当一个对象在方法中被定义后,它可能被外部方法所引用,例如作为调用参数传递到其他地方 中。

1 publicUsertest1(){
2 User user = new User();
3 user.setId(1);
4 user.setName("zhuge");
5 //TODO 保存到数据库
6 return user;
7}
8
9 publicvoidtest2(){
10 11 12 13 14
User user = new User(); user.setId(1); user.setName("zhuge"); //TODO 保存到数据库
}

很显然test1方法中的user对象被返回了,这个对象的作用域范围不确定,test2方法中的user对象我们可以确定当方法结束这个对象就可 以认为是无效对象了,对于这样的对象我们其实可以将其分配的栈内存里,让其在方法结束时跟随栈内存一起被回收掉。 JVM对于这种情况可以通过开启逃逸分析参数(-XX:+DoEscapeAnalysis)来优化对象内存分配位置,JDK7之后默认开启逃逸分析,如果要 关闭使用参数(-XX:-DoEscapeAnalysis)

你可能感兴趣的:(JVM内存模型深度剖析)