性能测试工具目前最常见的有以下几种:ab、http_load、webbench、siege。
ab是apache自带的压力测试工具。ab非常实用,它不仅可以对apache服务器进行网站访问压力测试,也可以对或其它类型的服务器进行压力测试。比如nginx、tomcat、IIS等。
ab工具是apache的默认测试工具
ab -v显示ab的命令用法
ab的原理:
ab命令会创建多个并发访问线程,模拟多个访问者同时对某一URL地址进行访问。它的测试目标是基于URL的,因此,它既可以用来测试apache的负载压力,也可以测试nginx、lighthttp、tomcat、IIS等其它Web服务器的压力。
ab命令对发出负载的计算机要求很低,它既不会占用很高CPU,也不会占用很多内存。但却会给目标服务器造成巨大的负载,其原理类似CC攻击。自己测试使用也需要注意,否则一次上太多的负载。可能造成目标服务器资源耗完,严重时甚至导致死机。
ab的安装:
ab的安装非常简单,如果是源码安装apache的话,那就更简单了。apache安装完毕后ab命令存放在apache安装目录的bin目录下.
如果apache 是通过yum的RPM包方式安装的话,ab命令默认存放在/usr/bin目录下
参考别人的一个栗子:
ab -n 100 -c 10 https://www.baidu.com/index.html
This is ApacheBench, Version 2.3 <$Revision: 1706008 $>
Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/
Licensed to The Apache Software Foundation, http://www.apache.org/
//以上为apache的版本信息,与本次测试无关
Benchmarking www.baidu.com (be patient).....done
//以上内容显示测试完成度,本次测试发起请求数量较少,完成较快,无中间过程显示。在请求数量很多时会分行显示当前完成数量。
Server Software: bfe/1.0.8.14 //被测试的服务器所用的软件信息,这里使用的是百度自己开发的反向代理Baidu Front End,类似nginx。
Server Hostname: www.baidu.com //被测主机名
Server Port: 443 //被测主机的服务端口号,一般http请求的默认端口号是80,https默认使用443端口
SSL/TLS Protocol: TLSv1.2,ECDHE-RSA-AES128-GCM-SHA256,2048,128 //加密协议
Document Path: /index.html //请求的具体文件
Document Length: 227 bytes //请求的文件index.html大小
Concurrency Level: 10 //并发级别,也就是并发数,请求中-c参数指定的数量
Time taken for tests: 1.093 seconds //本次测试总共花费的时间
Complete requests: 100 //本次测试总共发起的请求数量
Failed requests: 0 //失败的请求数量。因网络原因或服务器性能原因,发起的请求并不一定全部成功,通过该数值和Complete requests相除可以计算请求的失败率,作为测试结果的重要参考。
Total transferred: 103314 bytes //总共传输的数据量,指的是ab从被测服务器接收到的总数据量,包括index.html的文本内容和请求头信息。
HTML transferred: 22700 bytes //从服务器接收到的index.html文件的总大小,等于Document Length*Complete requests=227 bytes*100=22700 bytes
Requests per second: 91.50 [#/sec] (mean) //平均(mean)每秒完成的请求数:QPS,这是一个平均值,等于Complete requests/Time taken for tests=100/1.093=91.50
Time per request: 109.287 [ms] (mean) //从用户角度看,完成一个请求所需要的时间(因用户数量不止一个,服务器完成10个请求,平均每个用户才接收到一个完整的返回,所以该值是下一项数值的10倍。)
Time per request: 10.929 [ms] (mean, across all concurrent requests)// 服务器完成一个请求的时间。
Transfer rate: 92.32 [Kbytes/sec] received //网络传输速度。对于大文件的请求测试,这个值很容易成为系统瓶颈所在。要确定该值是不是瓶颈,需要了解客户端和被测服务器之间的网络情况,包括网络带宽和网卡速度等信息。
Connection Times (ms)
min mean[+/-sd] median max
Connect: 47 74 12.9 74 106
Processing: 9 32 20.2 32 106
Waiting: 9 29 19.1 27 98
Total: 66 106 20.8 106 195
//这几行组成的表格主要是针对响应时间也就是第一个Time per request进行细分和统计。一个请求的响应时间可以分成网络链接(Connect),系统处理(Processing)和等待(Waiting)三个部分。表中min表示最小值; mean表示平均值;[+/-sd]表示标准差(Standard Deviation) ,也称均方差(mean square error),这个概念在中学的数学课上学过,表示数据的离散程度,数值越大表示数据越分散,系统响应时间越不稳定。 median表示中位数; max当然就是表示最大值了。
//需要注意的是表中的Total并不等于前三行数据相加,因为前三行的数据并不是在同一个请求中采集到的,可能某个请求的网络延迟最短,但是系统处理时间又是最长的呢。所以Total是从整个请求所需要的时间的角度来统计的。这里可以看到最慢的一个请求花费了195ms,这个数据可以在下面的表中得到验证。
Percentage of the requests served within a certain time (ms)
50% 106
66% 109
75% 111
80% 114
90% 118
95% 154
98% 176
99% 195
100% 195 (longest request)
//这个表第一行表示有50%的请求都是在106ms内完成的,可以看到这个值是比较接近平均系统响应时间(第一个Time per request: 109.287 [ms] (mean) )
以此类推,90%的请求是小于等于118ms的。刚才我们看到响应时间最长的那个请求是195ms,那么显然所有请求(100%)的时间都是小于等于195毫秒的,也就是表中最后一行的数据肯定是时间最长的那个请求(longest request)。
----
什么是带宽?
误解:“数据在线路中的移动速度”、“数据的传输速度”
我们所说的带宽是指数据的发送速度,比如百兆网卡,指网卡的最大发送速度是100Mbps,也就是说网卡在一秒钟最多可以发送100Mb的数据;相关的因素:
数据发送装置将二进制信号传送到线路的能力,也称信号传输频率,以及另一端数据接收装置对二进制信号接收的能力,也包括线路对传输频率的支持程度;
数据传输介质的并行度,等价于计算机系统总线宽度的概念;
习惯与约定
b:比特单位 bit;
B:字节单位 Byte;
1KB = 1024B;
1kb = 1000b;
M与K 的换算同上;
什么是吞吐率?
吞吐率(Throughput),是指web服务器单位时间内处理的请求数,单位:reqs/s;
一般更关心的是服务器并发处理能力的上限 ,即最大吞吐率;
关于压力测试
基于吞吐率压力测试的几个前提:
并发用户数;(某一时刻同时向服务器发送请求的用户数量)
总请求数;
请求资源描述;
几个重要指标:
请求等待时间
用户平均请求等待时间(主要衡量服务器在一定并发用户数的情况下,对单个用户的服务质量)
服务器平均请求方护理时间(衡量服务器整体服务质量)
压力测试工具:Apache附带的ab、LoadRunner、Jmeter
服务器系统负载
?
1
$ cat /proc/loadavg
?
1
0.58 1.19 0.64 1/92 8306
这里0.58 1.19 0.64 这3个数字表示:系统最近1分钟、5分钟、15分钟分别计算出来的系统负载;
1表示当前运行队列中的进程个数;92表示此时的进程总数;8306表示到此时为止最后创建的一个进程ID;
Apache ab的使用介绍
在《构建高性能web站点》中多处讲到了用apache 自带的压力测试工具ab进行Server的性能测试,搜索了一下相关知识,整理如下:
ab的全称是ApacheBench,是 Apache 附带的一个小工具,专门用于 HTTP Server 的benchmark testing,可以同时模拟多个并发请求。下面以一个实际例子来介绍ab的使用:
?
1
2
3
[xiekeli@localhost ~]$ ab -n 1000 -c 50 http://www.abc.com/a.php
//产生1000次http请求,每次的并发用户数:50
This is ApacheBench, Version 2.0.40-dev <;$Revision: 1.146 $> apache-2.0
Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/
Copyright 2006 The Apache Software Foundation, http://www.apache.org/
Benchmarking www.abc.com (be patient)
Completed 100 requests
Completed 200 requests
Completed 300 requests
Completed 400 requests
Completed 500 requests
Completed 600 requests
Completed 700 requests
Completed 800 requests
Completed 900 requests
Finished 1000 requests
Server Software: Apache //被测平台Apache
Server Hostname: www.abc.com //服务器主机名
Server Port: 80
Document Path: /a.php
Document Length: 231 bytes //文档大小
Concurrency Level: 50 //并发数
Time taken for tests: 12.818547 seconds
Complete requests: 1000 //完成请求数
Failed requests: 0 //失败的请求数
Write errors: 0
Non-2xx responses: 1001
Total transferred: 438438 bytes //整个场景中的网络传输量
HTML transferred: 231231 bytes //整个场景中的HTML内容传输量
Requests per second: 78.01 [#/sec] (mean) //吞吐率,即每秒处理的请求数(后面括号中的 mean 表示这是一个平均值)
Time per request: 640.927 [ms] (mean) //每次请求的响应时间(后面括号中的 mean 表示这是一个平均值
Time per request: 12.819 [ms] (mean, across all concurrent requests) //每次请求的响应时间(后面括号中已经说明,是按所有并发数计算的平均值)
Transfer rate: 33.39 [Kbytes/sec] received //平均每秒网络上的流量,可以帮助排除是否存在网络流量过大导致响应时间延长的问题
Connection Times (ms) //网络上消耗的时间的分解,各项数据的具体算法还不是很清楚
min mean[+/-sd] median max
Connect: 186 307 598.1 212 9188
Processing: 188 271 289.6 214 1923
Waiting: 188 245 219.9 213 1416
Total: 376 579 660.2 427 9380
//整个场景中所有请求的响应情况。在场景中每个请求都有一个响应时间,其中50%的用户响应时间小于1093 毫秒,60% 的用户响应时间小于1247 毫秒,最大的响应时间小于7785 毫秒,由于对于并发请求,cpu实际上并不是同时处理的,而是按照每个请求获得的时间片逐个轮转处理的,所以基本上第一个Time per request时间约等于第二个Time per request时间乘以并发请求数
Percentage of the requests served within a certain time (ms)
50% 427
66% 430
75% 431
80% 433
90% 451
95% 1630
98% 3382
99% 3429
100% 9380 (longest request)
-n : 表示的测试的次数,很多地方翻译成“发送请求的次数”,这样很容易产生歧义,应该叫:“http请求数”比价合适;这里表示1000次http请求;
-c : 表示每次的请求数,-c 50表示一次同时发起50个http请求,50次请求都收到响应了之后,再次发送50个http请求,直到发满1000次。
web优化的其他一些相关知识点:
缓存(cache)和缓冲(buffer)的区别:
缓存 (cache):缓存的目的是把需要花费昂贵开销的计算结果保存起来,在以后需要的时候直接取出,避免重复的计算。
缓冲 (buffer):目的在于改善各部件之间因为速度不同而引发的问题。起到将快速设备与慢速设备平滑衔接的作用。
页面缓存(Page Cache)
页面缓存就是将动态计算的结果进行缓存,避免动态内容不必要的重复计算,主要是针对动态生成的html页面和动态图片或动态XML数据等;
缓存持久化和搜索
如果缓存文件非常多,cache目录下会拥挤大量的文件,如果缓存的文件的读写频度比较高,对CPU的影响是非常大的;
解决的方案:
1、使用支持目录hash加速目录遍历的文件系统来缓解这种情况,如:XFS和reiserfs;
2、缓存目录分级
过期检查
缓存过期时间
缓存有效期长度
把缓存放到内存中
如果将缓存数据放到磁盘文件中,每次缓存加载和过期检查都在磁盘I/O的开销,如果磁盘同时还运行着如数据库这样的I/O密集型应用,那么缓存文件的I/O操作便会存在一定的延迟。
作者在这里提到了两个PHP的缓存框架:APC和XCache。
缓存服务器
将HTML缓存在一台独立的缓存服务器中,利用memcached,可以很容易的通过TCP将缓存存储在其他的服务器中,memcached同样也是用内存空间保存缓存数据的,可以减少不必要的I/O。memcached对每一个key都维护一个过期时间,一旦过期,会自动删除这个key。
局部无缓存
局部无缓存允许在页面中指定一块包含动态数据的HTML代码段,每次这些动态数据都需要实时计算,然后和其余的缓存合成为最终的网页。
静态化内容
动态内容缓存中,每次用户的请求都要送到动态程序,动态程序根据缓存的有效期决定是否输出缓存。因此这种控制权的代价也是比较昂贵的。
将动态页面×××.php的缓存从cache目录拿出来,放到同一个目录中:×××.html,直接通过浏览器访问对应静态页面。
当然静态化页面也是需要动态程序来实现的,一般静态化页面的管理都是通过CMS(内容管理系统)来进行管理的。
静态化页面的更新策略:
1、在数据更新时,重新生成静态化内容;
2、定时重新生成静态化内容;
局部静态化
静态化页面可以通过SSI(服务器端包含)技术实现各个局部页面的独立更新。
SSI技术可以在任何一个主流web服务器中找到相应的模块,如Apache的mod_include和Lighttpd的mod_ssi。
名词解释:PV
PV (page view) 即页面浏览量,或点击量,通常是衡量一个 网络新闻 频道或网站甚至一条网络新闻的主要指标。
定义:一个访问者在24小时(0点到24点)内到底看了你网站几个页面。需要注意的是:同一个人浏览你网站同一个页面,不重复计算pv量。pv就是一个访问者打开了你网站的几个页面。
pv的计算:当一个访问者访问的时候,记录他所访问的页面和对应的IP,然后确定这个IP今天访问了这个页面没有。如果你的网站到了23点,单纯IP有60万条的话,每个访问者平均访问了3个页面,那么pv表的记录就要有180万条。