关于resin ping超时的问题

最近遇到一个很奇怪的问题,就是在高峰期的时候,resin会ping ok超时(这是resin的一个自动检查工具,在conf/resin.conf配置),如下图:

关于resin ping超时的问题

三次以上超时的话就会自动重启,因为之前没有过这方面的经验,所以解决起来很费劲,走了很多弯路(由于每次超时基本上都会有Forcing GC due to low memory这样的字眼,所以开始误以为是内存泄露),下面是分析经过,希望对有些人有帮助。

 

我在服务器ping超时的时候dump了一些信息(dump脚本文章末尾给出),我们来分析一下

 

首先看load21:58:15 up 34 days,  1:24,  2 users,  load average: 0.32, 0.28, 0.27

很明显load不高。

 

再看top

USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                                                                                                    

root      18   0 12.1g  10g  89m S 21.7 70.0 203:49.72 java

cpu占用率也不高,这表示java没有进行密集的cpu计算,java内存占了70%,也就是15.6G*0.7=10.96G

 

再看看堆内存信息:

Eden Space:

   capacity = 5910298624 (5636.5MB)

   used     = 5481955816 (5228.000465393066MB)

   free     = 428342808 (408.4995346069336MB)

   92.75260295206363% used

From Space:

   capacity = 190119936 (181.3125MB)

   used     = 0 (0.0MB)

   free     = 190119936 (181.3125MB)

   0.0% used

To Space:

   capacity = 190578688 (181.75MB)

   used     = 0 (0.0MB)

   free     = 190578688 (181.75MB)

   0.0% used

PS Old Generation

   capacity = 4194304000 (4000.0MB)

   used     = 2836024848 (2704.644058227539MB)

   free     = 1358279152 (1295.355941772461MB)

   67.61610145568848% used

PS Perm Generation

   capacity = 190840832 (182.0MB)

   used     = 99512072 (94.90210723876953MB)

   free     = 91328760 (87.09789276123047MB)

   52.144014966356885% used

 

总共申请到的内存一共有:5636.5+181.3125+181.75+4000+182=10255.8125MB/1024M=10.015G,这说明JNI调用花费的内存为10.96-10.015=0.945GJNI不存在内存泄漏。

 

可能有人觉得Eden用了92%,是不是太高了点,这很正常,它马上会被回收掉,我们可以再看看另一台服务器的堆内存信息:

Eden Space:

   capacity = 9814802432 (9360.125MB)

   used     = 1181853960 (1127.1037673950195MB)

   free     = 8632948472 (8233.02123260498MB)

   12.041546105367392% used

From Space:

   capacity = 337051648 (321.4375MB)

   used     = 245305144 (233.94121551513672MB)

   free     = 91746504 (87.49628448486328MB)

   72.7796898355471% used

To Space:

   capacity = 333905920 (318.4375MB)

   used     = 0 (0.0MB)

   free     = 333905920 (318.4375MB)

   0.0% used

PS Old Generation

   capacity = 8388608000 (8000.0MB)

   used     = 3622388416 (3454.5787963867188MB)

   free     = 4766219584 (4545.421203613281MB)

   43.18223495483399% used

PS Perm Generation

   capacity = 100728832 (96.0625MB)

   used     = 100571056 (95.91203308105469MB)

   free     = 157776 (0.1504669189453125MB)

   99.84336560161842% used

 

这样看来内存是完全够用的,Perm设置为256M,之后还会膨胀,所以99%也没什么。

我们再来看看gc信息:

 S0C      S1C      S0U    S1U      EC       EU         OC          OU       PC       PU       YGC   YGCT    FGC    FGCT     GCT  

185664.0 186112.0  0.0    0.0   5771776.0 5330191.7 4096000.0  2769555.5  186368.0 97179.8    266  106.315   5     19.005  125.320

我也没看出来有什么异常。

 

我们来总结一下:

内存够用

cpu也没有进行大量的操作

gc正常

关键是也没有发生oom异常(这表示内存够用)

另外,并不是每次超时之前resin都会打印Forcing GC due to low memory这样的字眼

所以,我认为不是内存泄漏的原因,也就不用再分析2G多大的heap文件了。

 

如果不是内存泄漏的原因,那么到底是什么原因呢?

有两个因素引起了我的注意:

1.以前也有过这种情况,但是也没有这么频繁,最近开始变得有点频繁了

2.我统计了发生超时的时间,绝大部分都集中在访问的高峰期

 

整个问题的关键因素是搞清楚resin为什么会ping超时,是cpu忙不过来了?不是,是网络堵了?也不是,是内存不够?也不是,那到底是为什么呢?上述信息明显不够,于是我在服务器上开启了resinaccess.log;从access.log上可以看出,有大量的最近刚上线的请求这是不是就是最近频繁发生的原因呢?另外,我在服务器发生超时的时候接了一个图:

关于resin ping超时的问题
 从截图来看,224538发生一次超时,从access.log来看,前一次ping发生在22:44:17,第二次ping发生在22:45:45,照理说,ping是每隔1分钟ping的,也就是说第二次ping应该发生在22:45:17,但是却发生在22:45:45,中间这个误差就是超时的时间。也就是说这个ping操作完全没有连接上resin,突然想到,不是cpu忙不过,不是内存不够,那极有可能是达到了最大连接数限制了,刚开始我以为是thread-max配置最大连接数,后来仔细查了资料,发现不是这么回事。

 

Thread-maxthread-pool配置的,threadpool就是一个加工厂,每个thread都是一个工人,它们处理来自tcp连接的请求,所以不是连接数的设置。从网上找的资料,下了一个resin3.0.21源码包,找到Port类:

 

关于resin ping超时的问题

我没有去查找_connectionMax是否动态设置,但是据网上说resin是写死了的(又有的人说是pro专业版提供配置,但是我看Port类提供了动态设置的方法),也就是说最大连接数不能超过512个,看看代码:

关于resin ping超时的问题
 Port线程负责创建新的tcp连接,上面是代码,从这里可以看出,如果超出了最大连接数,就会等待60s,这个时间,ping早就超时了!!

 

那么我们的ping超时的时候,最大连接数到底是多少呢?幸好我当时也一并dump下了jstack,查找resin-tcp-connection-*:8080-,一共有515个这样的线程,除去"resin-tcp-connection-*:8080-101-EventThread""resin-tcp-connection-*:8080-101-SendThread(UserZooKeeper5:2181)""resin-tcp-connection-*:8080-101-SendThread(UserZooKeeper3:2181)"这三个不是用户tcp连接(是什么我也不知道),刚好剩下512个线程,这是巧合吗?好吧,我们再看看线上没有问题服务的tcp连接数,搜索resin-tcp-connection-*:8080-,一共是286个,小于512,这也是巧合吗?种种迹象表明,在ping超时时,我们的连接数达到了最大值512!!

 

最后的解决方法是,我参考了网上的方法,为resin加大了连接数,<http server-id="" host="*" port="8080" connection-max="700"/>

 

======================================dump脚本======================================

#!/bin/bash
export JAVA_HOME=/opt/j2sdk
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$CLASSPATH

time=`date +"%Y-%m-%d-%H:%M:%S"`
dir="/data/dump"
if [ ! -x $dir ]
then
 mkdir $dir
fi

#load
w > $dir/load_$time.data
echo load done!

#java cpu/mem
top -n 1 > $dir/top_$time.data
echo top done!

#resin pid
pid=`/opt/j2sdk/bin/jps | grep Resin | cut -d' ' -f1`
echo resin pid is $pid...

#gc
jstat -gc $pid > $dir/gc_$time.data
echo gc done!

#heap info
jmap -heap $pid > $dir/heapinfo_$time.data
echo heap info done!

#histo
jmap -histo:live $pid  > $dir/histo_$time.data
echo histo done!

#heap dump
jmap -dump:live,format=b,file=$dir/heapdump_$time.bin $pid
echo heap dump done!

#jstack
jstack $pid > $dir/jstack_$time.data

echo jstack done!
 

 

你可能感兴趣的:(resin)