欢迎访问陈同学博客原文
本文基于一个线上真实问题。在 Zuul 无任何安全防护措施时,若遇到较大流量(单个Zuul应用在默认配置下200并发即可),将产生非常严重的后果。
本文主要是探寻下问题产生的原因。
先简述下问题背景与即时处理。
网络拓扑:请求 -> nginx -> 容器编排工具的LB(Haproxy) -> 网关(Zuul) -> 具体服务
现象:某服务突然无法访问
排查:
请求顺利到 nginx 及 haproxy => 网络正常,代理正常
访问具体服务的健康检查 /health
接口,正常返回数据 => 应用本身正常,网关有问题
查看 Zuul 网关情况
1.首屏日志正常(只通过控制台看了最后一丢丢日志)
2.GC频率和时间均正常,Minor GC 时间 avg 19ms (max 60ms),Full GC avg 224ms (max 520ms)
3.应用消耗的资源(CPU、内存)很少
4.获取 threaddump,发现 tomcat 工作线程( 形如:http-nio-8080-exec-1)全部阻塞,且数量达到200. 200 是 tomcat maxThreads 的默认值。
200 个线程状态都是 WAITING,在等待唤醒,都是 parking to wait for <0x0000000704bcc698>,如下图:
处理:这种情景首次出现,不过能判定是网关问题。摘除问题网关流量并切到其他网关后,获取了问题网关的 heapdump,暂不kill掉问题网关,留着用于排查问题。
解决线上问题都以尽快恢复正常使用为目标,平时存储好日志、metric等相关信息十分重要,否则出现问题时将只能两眼抓瞎,等待问题重现。
接下来,找找问题产生的原因。
线程堆栈关键信息看上面那张图就好,线程正在做的事情是:RibbonRoutingFilter 正在使用 Apache Http Client 将请求数据发送到具体的服务,在获取 HTTP连接时被阻塞。上面截图中部分信息如下:
java.util.concurrent.locks.LockSupport.park()
java.util.concurrent.locks.AbstractQueuedSynchronizer$ConditionObject.await()
org.apache.http.pool.AbstractConnPool.getPoolEntryBlocking()
org.apache.http.pool.AbstractConnPool$2.get()
org.apache.http.impl.conn.PoolingHttpClientConnectionManager.leaseConnection()
根据函数名大致能猜测:获取HTTP连接(leaseConnection)时线程被阻塞(LockSupport.park),而且网关200个线程全部被阻塞,导致无法响应任何请求。
为便于下文问题分析,先了解下HTTP连接池。HTTP长连接、短连接想必都很熟悉,短连接是每次数据传输时客户端需要和服务端建立一个连接,而长连接是一旦客户端服务端之间的连接建立,就可以多次传输数据而不用每次建立连接。
长连接可以 省去数据传输每次建立连接的资源开销,提高数据传输效率。
Http Client 将 HTTP 连接缓存到了自己的连接池中,各线程需要传输数据时就可以复用这些HTTP连接,可类比JDBC连接池、线程池等。下面是我画的Http Client连接池概念的简图:
利用上图辅助理解,由于Http Client 可能会调用多个服务,因此它对不同的服务(就是IP+Port)有独立的连接池,这些独立连接池的并集就是 Http Client 的连接池概念。
连接池数据结构是Map
默认,每个Route的池里最多有50个HTTP长连接,而我们的网关作为一个普通服务,其对应的连接池中最多也只能持有50个连接,若超过50个请求,那超出部分就只能排队了。
先看看一个请求的正常处理流程。
在 org.apache.http.pool.AbstractConnPool
(连接池) 中,有几个重要的属性:
private final Set<E> leased; private final LinkedList<E> available; private final LinkedList<Future<E>> pending;
结合下面这张图介绍下处理流程和关键的源码,同时演示leased、available、pending的变化。
AbstractConnPool.getPoolEntryBlocking()
下面看看源码,不想看代码可以直接跳过,了解代码的作用即可。下面代码的作用是:
如果有现成的连接,就直接用;如果没有且没有达到连接数量限制,就创建新连接用;如果连接池满了,那就把当前请求对应的线程给阻塞住,并加到pending列表中,等到有连接可用时再来唤醒它。
private E getPoolEntryBlocking(final T route, ... final Future<E> future) throws ... { this.lock.lock(); try { // 获取当前 route 的连接池 final RouteSpecificPool<T, C, E> pool = getPool(route); E entry; // 死循环获取连接 for (;;) { // 1.先尝试从连接池获取连接,死循环用于剔除无效连接 for (;;) { entry = pool.getFree(state); // 连接池没有就直接中断,走下面的创建连接 if (entry == null) { break; } // 连接池有连接的话就做下基础校验,确保连接可用 if (entry.isExpired(System.currentTimeMillis())) { entry.close(); } if (entry.isClosed()) { this.available.remove(entry); pool.free(entry, false); } else { break; } } // 2. 从连接池拿到OK的连接,并将连接从available中移到leased if (entry != null) { this.available.remove(entry); this.leased.add(entry); onReuse(entry); return entry; } // 3. 判断连接池是否超过50个连接,把多余的销毁掉 ... // 4. 如果已分配连接小于50,就开始创建新的连接 if (pool.getAllocatedCount() < maxPerRoute) { // Http Client有最大连接数限制,如果所有route的连接数没超过,则创建连接并返回 if (freeCapacity > 0) { ... return entry; } } // 5. 若已分配连接大于50,用JUC的 Condition.await() 阻塞当前线程,把任务加到pending链表中。 // 特别注意:这里属于死循环中,唤醒线程后它又开始走上面的路,开始尝试获取连接 try { ... pool.queue(future); this.pending.add(future); ... this.condition.await(); } finally { pool.unqueue(future); this.pending.remove(future); } ... } throw new TimeoutException("Timeout waiting for connection"); } finally { this.lock.unlock(); } }
AbstractConnPool.release()
释放连接作用:
public void release(final E entry, final boolean reusable) { this.lock.lock(); try { if (this.leased.remove(entry)) { // 连接可用则复用,不可用则close final RouteSpecificPool<T, C, E> pool = getPool(entry.getRoute()); pool.free(entry, reusable); if (reusable && !this.isShutDown) { this.available.addFirst(entry); } else { entry.close(); } onRelease(entry); // 从当前Route的连接池中取下一个pending的任务,如果有,则condition.signalAll() Future<E> future = pool.nextPending(); if (future != null) { this.pending.remove(future); } else { future = this.pending.poll(); } // 注意:这里的 signalAll() 和 获取连接的 await() 就衔接起来了。 if (future != null) { this.condition.signalAll(); } } } finally { this.lock.unlock(); } }
下面两行代码尤为重要:
获取连接中的 this.condition.await()
释放连接中的 this.condition.signalAll()
await() 即阻塞当前线程,发生的条件是:route的连接池已满50个,因此新来的请求需要等待,即阻塞掉,符合第一步中贴的截图,状态为WAITING;
signalAll() 即唤醒所有线程,发生的条件是:需要还有待处理的任务,没有待处理的任务那所有线程继续WAITING就好
通过上文,介绍了 Http Client 的连接池机制和实现细节。不过正常情况下流量相对大点也不会压垮网关,原因是:
Http Client 中一个 Route 的连接池即使达到最大50个连接,后续再来请求,进入pending集合即可。毕竟50个连接中一旦有完成任务的,立马就会唤醒这些pending的任务,可以继续处理。
做个简单试验:
试验结果(通过 VisualVM 直接查看线程状态或拿threaddump):
线程数量一下子增长到最大值200,运行中的为50,阻塞的有150
持续运行几分钟,各个线程在正常交替处理任务,没有任何问题
中断jmeter压测后,线程数量从200正常收缩到默认值10,一切正常,无法复现问题。
看上去似乎一切正常,难以复现问题。遇到这个问题时,帆哥和晓波贴了github上类似的一个issue:PoolingHttpClientConnectionManager thread all in “java.lang.Thread.State: WAITING (parking)”。
猜测是Http Client没有释放连接,因为在看了释放连接源码后,发现释放连接中做了几个重要的事情,会影响到连接的获取:
pool.free(entry, reusable); // free 方法代码 public void free(final E entry, final boolean reusable) { final boolean found = this.leased.remove(entry); if (reusable) { this.available.addFirst(entry); } }
一是会把连接从 leased 中移除,这样可用连接数加1,已占用连接数减1. 特别注意的是:在获取连接时,如果已用连接大于50个,线程就await阻塞。因此,一旦这里出问题,50个连接的名额很快就霍霍完,后续的所有线程逐渐全部阻塞掉,直到应用瘫痪。
二是会唤醒所有阻塞的线程,如果没有释放连接,也就不会执行线程唤醒逻辑,那被阻塞的线程就只有长眠地下了。
this.condition.signalAll();
接着,调试了一下,释放连接是在Zuul的 SendResponseFilter 中处理的,它会把具体服务返回的数据写到response中去,当检测到inputStream中数据读取完毕后,http client会自动释放连接。
//SendResponseFilter调用writeResponse方法将数据写入response private void writeResponse(InputStream zin, OutputStream out) throws Exception { byte[] bytes = buffers.get(); int bytesRead = -1; while ((bytesRead = zin.read(bytes)) != -1) { out.write(bytes, 0, bytesRead); } }
而这个 Inputstream有点特殊,是 EofSensorInputStream,EofSensor可以理解为能敏锐的嗅到数据读取完毕,然后可以干点事情。是的,它干的事情就是:释放连接!
问题有点眉头了,在Zuul Filter中,有个规矩:在Filter执行过程中,如果发生异常,就直奔SendErrorFilter中去做异常处理了,没SendResponseFilter啥事。因此,可以推断:如果Zuul Filter抛出异常,那释放连接过程就不会执行。
下面做个小实验:自定义一个Filter,在RibbonRoutingFilter后运行,就负责抛出异常。
@Component public class MyFilter extends ZuulFilter { public volatile static int count = 0; @Override public String filterType() { return FilterConstants.POST_TYPE; } @Override public int filterOrder() { return FilterConstants.RIBBON_ROUTING_FILTER_ORDER + 1; } ... @Override public Object run() { count++; String tname = Thread.currentThread().getName(); System.out.println(tname + ": " + count); throw new RuntimeException("error occurred:" + tname); } }
这下,问题重现了。问题出现的过程如下:
由于 tomcat 200个工作线程全部阻塞,将不再响应任何请求,因此应用就开始不理任何人了,它既不消耗资源,也不干活,因为它的手下们(工作线程)都 "中毒"休眠了。
如果你有兴趣,很简单就可以重现该问题。我的 Spring Cloud 版本为(有点旧,也没升级):
<parent>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-parentartifactId>
<version>1.5.9.RELEASEversion>
<relativePath/>
parent>
对应的httpcompoents版本为4.4.8(会自动引入,不用单独添加)
<parent>
<groupId>org.apache.httpcomponentsgroupId>
<artifactId>httpcoreartifactId>
<version>4.4.8version>
parent>
1.Zuul 除Http Client外,还支持OkHttp、RestClient。我用OkHttp做了测试,没有任何问题。
引入OkHttp的maven依赖,然后加入下面的配置,禁用httpclient,启用OkHttp
ribbon.httpclient.enabled=false
ribbon.okhttp.enabled=true
2.在自定义的Zuul Filter中,严格执行try {} catch{}
语法,捕获自定义Filter中出现的问题。本文出现的问题,就是因为自定义Filter没有这么做.
因为这种场景下,只要请求数稍微多点,做下压力测试,问题就出来了。不过也可以根据实际业务场景做限流。
最后,分享一个小技巧。
有些场景正常的调试不好定位问题,像这个问题就没法去单步调试,如果能修改第三方组件的源码,在运行时来判断问题就比较方便。以本文问题为例:
我想看看在较大流量获取连接时,下面函数中的各种因子是怎么变化的,又是怎么跑到阻塞逻辑中去的。因为有时光看代码时难以理解逻辑,通过一些实际的数据可以辅助理解。
private E getPoolEntryBlocking(){ ... this.condition.await(); ... }
在IDEA,我们可以查看源码,但无法修改源码,下面是我偶尔用的一个方法:
目标:修改 httpcore-4.4.8.jar 中 AbstractConnPool类的getPoolEntryBlocking函数,在其中加入自己的调试信息。
package org.apache.http.pool; public abstract class AbstractConnPool {...
步骤:
1.在当前项目创建一个org.apache.http.pool.AbstractConnPool类,拷贝AbstractConnPool中的代码。
2.由于项目有所有依赖,可以直接修改自己创建的AbstractConnPool类
3.编译项目,将AbstractConnPool.class文件拷贝出来
4.将 ~/.m2/repository/org/apache/httpcomponents/httpcore/4.4.8/httpcore-4.4.8.jar
拷贝出来,用7zip或其他解压工具打开,将AbstractConnPool.class替换掉jar包中的类
5.用修改后的jar包替换掉原来的jar包
6.运行项目,就可以看到自己的调试信息了。需要注意的是,用IDE打开这个类是看不到你加的代码的,因为IDE打开的是 httpcore-4.4.8-sources.jar
,换成其他反编译工具直接看class文件是OK的
欢迎关注陈同学的公众号,一起学习,一起成长