伴随着互联网的高速发展,越来越多的系统开始追求更低的延迟和更高的可用性,而一向以稳定可靠著称的java应用服却已经务苦GC久已~
此处的GC特指GC停顿,也就是我们常说的回收期间的STW(Stop The World),当STW时,所有业务线程被挂起,直到GC停顿结束。
举几个例子:
最新的JDK19也已经发布了,伴随着也是越来越多种类的垃圾回收器的到来,怎么挑选合适的垃圾回收器也一度成了系统优化的考虑点。
在早些年(包括现在)还是很多系统仍旧停留在JDK8,那么对于这些系统,选择垃圾回收器似乎还并没有那么难:
而随着服务器性能越来越强,可使用的堆内存也越来越大,常见的堆大小从10G到百G,部分机型甚至可以达到TB级别,在这类大堆应用上,传统的 GC,如 CMS、G1 的停顿时间也跟随着堆大小的增长而同步增加,即堆大小指
数级增长时,停顿时间也会指数级增长。特别是当触发 Full GC 时,停顿可达分钟级别(百GB级别的堆)。当业务应用需要提供 高服务级别协议(Service Level Agreement,SLA),例如 99.99% 的响应时间不能超过 100ms,此时 CMS、G1 等就无法 满足业务的需求。
为满足当前应用对于超低停顿、并应对大堆和超大堆带来的挑战,伴随着 2018 年发布的 JDK 11,A Scalable Low-Latency Garbage Collector - ZGC 应运而生。
ZGC(The Z Garbage Collector)是JDK 11中推出的一款追求极致低延迟的垃圾收集器,它曾经设计目标包括:
这么去想,如果使用ZGC来做Java项目,像对STW敏感的证券系统,游戏的系统都可以去用Java来做(以前都是C或者C++的 市场),所以ZGC的出现就是为了抢占其他语言的市场(卷!)。
从JDK11-JDK18,ZGC一直保持着持续更新的节奏,并且于JDK15正式宣布为Production Ready,大家也可以去wiki上看看目前最近的一些更新:https://wiki.openjdk.org/display/zgc/Main
在介绍ZGC的目标前,先用一个例子带大家看一下我们日常使用的垃圾回收器的STW时间,首先我们准备好以下代码:
public class StopWorld {
/*不停往list中填充数据*/
//就使用不断的填充 堆 -- 触发GC
public static class FillListThread extends Thread{
List<byte[]> list = new LinkedList<>();
@Override
public void run() {
try {
while(true){
if(list.size()*512/1024/1024>=990){
list.clear();
System.out.println("list is clear");
}
byte[] bl;
for(int i=0;i<100;i++){
bl = new byte[512];
list.add(bl);
}
}
} catch (Exception e) {
}
}
}
public static void main(String[] args) {
FillListThread myThread = new FillListThread(); //造成GC,造成STW
myThread.start();
}
}
本次测试使用的是JDK16,另外简单解释一下上面的示例代码,开启了一个线程不停往链表中添加元素,并达到一定大小后清空链表,往复多次即可填充满Eden区从而引发GC。
-XX:+UseParallelGC -Xmx2g -XX:+PrintGCDetails
-Xmx2g -XX:+PrintGCDetails
从上面两次运行结果可知,在JDK16运行环境下,无论是ps组合还是默认的垃圾回收器,都有明显的GC停顿,这对于追求超低延时的系统来说都是不能忍受的
同样还是使用上面的示例代码,使用ZGC参数如下:
-XX:+UseZGC -Xmx2g -XX:+PrintGCDetails
和以上两种垃圾回收器不同,ZGC的pause时间分为了多段,但是每一段时间都非常短,一次GC总计的停顿时间甚至不足0.1ms!!!
这是JDK11时提出的ZGC目标,不过直至现在,ZGC单次GC的STW时间已经不会超过1MS,而且不会随堆大小变大(最大16TB)而时间变长,可见性能已经秒杀其他垃圾回收器了,那么这么强悍的性能,ZGC是如何实现的呢,那让我们继续往下~
为了细粒度地控制内存的分配,和G1一样,ZGC将内存划分成小的分区,在ZGC中称为页面(page)。
**ZGC中没有分代的概念(新生代、老年代) **
ZGC支持3种页面,分别为小页面、中页面和大页面。
其中小页面指的是2MB的页面空间,中页面指32MB的页面空间,大页面指受操作系统控制的大页(N * 2M)。
ZGC对于不同页面回收的策略也不同。简单地说,小页面优先回收;中页面和大页面则尽量不回收。
标准大页(huge page)是Linux Kernel 2.6引入的,目的是通过使用大页内存来取代传统的4KB内存页面,以适应越来越大的系统内存,让操作系统可以支持现代硬件架构的大页面容量功能。
Huge pages 有两种格式大小: 2MB 和 1GB , 2MB 页块大小适合用于 GB 大小的内存, 1GB 页块大小适合用于 TB 级别的内存;2MB 是默认的页大小。
所以ZGC这么设置也是为了适应现代硬件架构的发展,提升性能。
在过去,对于X86架构的计算机,内存控制器还没有整合进CPU,所有对内存的访问都需要通过北桥芯片来完
成。X86系统中的所有内存都可以通过CPU进行同等访问。任何CPU访问任何内存的速度是一致的,不必考虑不
同内存地址之间的差异,这称为“统一内存访问”(Uniform Memory Access,UMA)。UMA系统的架构示
意图如图所示。
在UMA中,各处理器与内存单元通过互联总线进行连接,各个CPU之间没有主从关系。之后的X86平台经历了
一场从“拼频率”到“拼核心数”的转变,越来越多的核心被尽可能地塞进了同一块芯片上,各个核心对于内
存带宽的争抢访问成为瓶颈,所以人们希望能够把CPU和内存集成在一个单元上(称Socket),这就是非统一
内存访问(Non-Uniform Memory Access,NUMA)。很明显,在NUMA下,CPU访问本地存储器的速度比
访问非本地存储器快一些。下图所示是支持NUMA处理器架构示意图。
ZGC是支持NUMA的,在进行小页面分配时会优先从本地内存分配,当不能分配时才会从远端的内存分配。对
于中页面和大页面的分配,ZGC并没有要求从本地内存分配,而是直接交给操作系统,由操作系统找到一块能
满足ZGC页面的空间。ZGC这样设计的目的在于,对于小页面,存放的都是小对象,从本地内存分配速度很
快,且不会造成内存使用的不平衡,而中页面和大页面因为需要的空间大,如果也优先从本地内存分配,极易
造成内存使用不均衡,反而影响性能。
颜色指针可以说是ZGC的核心概念。因为他在指针中借了几个位出来做事情,所以它必须要求在64位的机器上才可以工作。并且因为要求64位的指针,也就不能支持压缩指针。
为了能直观的解释清楚什么是指针着色,我也准备了一个C语言的例子,代码如下:
#include
#include
#include
#include
#include
#include
#include
#include
int main()
{
//创建一个共享内存的文件描述符
int fd = shm_open("/example", O_RDWR | O_CREAT | O_EXCL, 0600);
if (fd == -1) return 0;
//防止资源泄露,需要删除。执行之后共享对象仍然存活,但是不能通过名字访问
shm_unlink("/example");
//将共享内存对象的大小设置为4字节
size_t size = sizeof(uint32_t);
ftruncate(fd, size);
//3次调用mmap,把一个共享内存对象映射到3个虚拟地址上
int prot = PROT_READ | PROT_WRITE;
uint32_t *remapped = mmap(NULL, size, prot, MAP_SHARED, fd, 0);
uint32_t *m0 = mmap(NULL, size, prot, MAP_SHARED, fd, 0);
uint32_t *m1 = mmap(NULL, size, prot, MAP_SHARED, fd, 0);
//关闭文件描述符
close(fd);
//测试,通过一个虚拟地址设置数据,3个虚拟地址得到相同的数据
*remapped = 0xdeafbeef;
printf("48bit of remapped is: %p, value of 32bit is: 0x%x\n", remapped, *remapped);
printf("48bit of m0 is: %p, value of 32bit is: 0x%x\n", m0, *m0);
printf("48bit of m1 is: %p, value of 32bit is: 0x%x\n", m1, *m1);
return 0;
}
在Linux上通过gcc编译后运行文件,得到的执行文件:
gcc -lrt -o mapping mapping.c
从结果我们可以发现,3个变量对应3个不同的虚拟地址。
**实地址:(32位指针)**是:0xdeafbeef <一位16进制代表4位二进制>
**虚地址:(48位指针): **
0x7f93aef8e000<虚地址remapped>
0x7f93aef8d000<虚地址m0>
0x7f93aef8c000<虚地址m1>
但是因为它们都是通过mmap映射同一个内存共享对象,所以它们的物理地址是一样的,并且它们的值都是0xdeafbeef。
在ZGC初始化之后,此时地址视图为Remapped,程序正常运行,在内存中分配对象,满足一定条件后垃圾回收启动。
这个阶段需要暂停(STW),初始标记只需要扫描所有GC Roots,其处理时间和GC Roots的数量成正比,停顿时间不会随着堆的大小或者活跃对象的大小而增加。
这个阶段不需要暂停(没有STW),扫描剩余的所有对象,这个处理时间比较长,所以走并发,业务线程与GC线程同时运行。但是这个阶段会产生漏标问题。
这个阶段需要暂停(没有STW),主要处理漏标对象,通过SATB算法解决(G1中的解决漏标的方案)。
下次GC中的并发标记(同时做上次并发标记对象的重定位)
技术上:指针着色中M0和M1区分
读屏障是JVM向应用代码插入一小段代码的技术。当应用线程从堆中读取对象引用时,就会执行这段代码。
需要注意的是,仅“从堆中读取对象引用”才会触发这段代码。
预热规则:服务刚启动时出现,一般不需要关注。日志中关键字是“Warmup”。
JVM启动预热,如果从来没有发生过GC,则在堆内存使用超过10%、20%、30%时,分别触发一次GC,以收集GC数据。
**基于分配速率的自适应算法:**最主要的GC触发方式(默认方式),其算法原理可简单描述为”ZGC根据近期的对象分配速率以及GC时间,计算出当内存占用达到什么阈值时触发下一次GC”。通过ZAllocationSpikeTolerance参数控制阈值大小,该参数默认2,数值越大,越早的触发GC。日志中关键字是“Allocation Rate”。
基于固定时间间隔:通过ZCollectionInterval控制,适合应对突增流量场景。流量平稳变化时,自适应算法可能在堆使用率达到95%以上才触发GC。流量突增时,自适应算法触发的时机可能会过晚,导致部分线程阻塞。我们通过调整此参数解决流量突增场景的问题,比如定时活动、秒杀等场景。
主动触发规则:类似于固定间隔规则,但时间间隔不固定,是ZGC自行算出来的时机,我们的服务因为已经加了基于固定时间间隔的触发机制,所以通过-ZProactive参数将该功能关闭,以免GC频繁,影响服务可用性。
阻塞内存分配请求触发:当垃圾来不及回收,垃圾将堆占满时,会导致部分线程阻塞。我们应当避免出现这种触发方式。日志中关键字是“Allocation Stall”。
外部触发:代码中显式调用System.gc()触发。 日志中关键字是“System.gc()”。
元数据分配触发:元数据区不足时导致,一般不需要关注。 日志中关键字是“Metadata GC Threshold”。
ZGC 优势不仅在于其超低的 STW 停顿,也在于其参数的简单,绝大部分生产场景都可以自适应。当然,极端情况下,还是有可能需要对 ZGC 个别参数做个调整,大致可以分为三类:
由上可以看出 ZGC 需要调整的参数十分简单,通常设置 Xmx 即可满足业务的需求,大大减轻 Java 开发者的负担。