一个网站性能的问题,寻求帮助!

网站是一个wap站点,负责将用户访问的web站点的页面转换成为wml页面展示给手机用户

服务器主要使用apache2.2 + resin3.1,四台服务器

一台服务器用apache做入口,使用mod_caucho做负载均衡,另外三台服务器负责处理具体逻辑

其中抓取网页部分用了Apache的Commons-HttpClient,解析HTML用了NekoHtml,缓存使用的是OSCache(没有做集群),数据库(主要保存的是html->wml的转换规则数据,数据量很小)用的MySql5。

逻辑的主要流程是这样:

1、用户在wap页面上点击或者输入一个web站点的网址,交给服务器处理

2、服务器首先判断请求的网页是否在本地缓存,如果是,直接输出给用户。

3、如果本地缓存不存在,则通过httpclient抓取远程的网页,并且解析并且根据一定规则处理成手机能够浏览的wml页面,展示给手机用户。

 

开始用户量很小的时候没出现什么问题,但随着每天PV的增加,性能的问题就越来越明显

目前每天的访问量大概每天只有100万的PV左右,但性能已经出现比较大的问题了。

 

现在的表现是抓取网页速度明显有所下降,从每次抓取一个页面需要几十到几百毫秒上升到了几秒钟,而且那两台Resin服务器的CPU的占用率最高时候能够达到接近100%,有时则是resin停止响应,需要重启resin才能继续响应用户请求。

 

 

另外在CPU占用方面,有些数据我不是很明白:

这是TOP出来的数据:

CPU states:  cpu    user    nice  system    irq  softirq  iowait    idle
           total   45.4%    0.0%   52.1%   0.0%     0.2%    0.4%    1.5%
           cpu00   44.6%    0.0%   52.3%   0.1%     0.9%    0.6%    1.1%
           cpu01   42.2%    0.0%   55.4%   0.0%     0.0%    0.1%    2.1%
           cpu02   54.0%    0.0%   43.8%   0.0%     0.1%    0.3%    1.6%
           cpu03   40.9%    0.0%   56.9%   0.0%     0.0%    0.8%    1.3%

 

这里边的System指的是什么操作所占用的CPU呢?

 

 

数据库肯定不是瓶颈所在,因为全部做了缓存。

缓存本身也应该不会是瓶颈所在,因为用的是内存缓存+硬盘缓存

现在猜想的瓶颈可能会发生在解析HTML和抓取网页数据的部分。

 

 

通过自己的测试和分析,找出了问题可能导致性能问题的地方:

1、由于高峰期每秒接收用户请求并且数据不在缓存中的情况大概有5-10条,然而这10多条的数据抓取不可能在一秒钟之内完成(设置了抓取的超时时间是5秒钟),所以可能会导致前面的请求还没有处理完,后面的请求又过来了,对外的连接数就会一直增多,直到无法响应。但这种情况只应该发生在夜里10点到12点的高峰期。

2、经过JProfiler测试,发现占用CPU最高的操作是用NekoHtml解析HTML,占用的全部CPU资源的70-80%,这个我分析可能是影响效率的主要原因,我测试了一下,处理news.163.com这样的页面居然要花费几秒钟的时间。由于在做转换的时候我需要逐一遍历html的节点,所以用了递归方式处理的节点数据,但我不知道这个是否会影响解析的性能。

3、不知道mod_caucho在负载均衡方面是否有问题,因为发现三台resin的服务器分配的请求不太平均,其中一台分配的用户请求比较多,另外两台少一些,这样用户请求多的那一台服务器压力就特别大,所以导致访问速度非常慢。想尝试一下apache的反向代理负载均衡的模块试一下,不知道会不会分配平均一些。

 

 

请各位帮忙看一下性能问题可能会出现在什么地方,有什么好的方式解决没有?多谢了!

 

 

你可能感兴趣的:(apache,应用服务器,linux,memcached,UCWeb)