Linux命令之iostat

iostat

sysstat的安装包包括有iostat、mpstat、sar、sa的功能,如果没有可先下载然后安装在自己的机器上。

iostat是sysstat包的一部分。iostat显示自系统启动后的平均CPU时间(与uptime类似),它也可以显示磁盘子系统的使用情况,iostat可以用来监测CPU利用率和磁盘利用率。

iostat-x 1 10
Linux 2.6.18-92.el5xen    02/03/2009
avg-cpu:  %user   %nice %system %iowait  %steal  %idle
           1.10    0.00   4.82   39.54    0.07  54.46
Device:         rrqm/s   wrqm/s  r/s   w/s   rsec/s  wsec/s avgrq-sz avgqu-sz  await  svctm  %util
sda               0.00     3.50 0.40  2.50     5.60   48.00    18.48     0.00   0.97   0.97  0.28
sdb               0.00     0.00 0.00  0.00     0.00    0.00     0.00     0.00   0.00   0.00   0.00
sdc               0.00     0.00 0.00  0.00     0.00    0.00     0.00     0.00   0.00   0.00   0.00
sdd               0.00     0.00  0.00 0.00     0.00     0.00    0.00     0.00    0.00  0.00   0.00
sde               0.00     0.10 0.30  0.20     2.40    2.40     9.60     0.00   1.60   1.60   0.08
sdf              17.40     0.50 102.00  0.20 12095.20     5.60  118.40     0.70    6.81  2.09  21.36
sdg             232.40     1.90 379.70  0.50 76451.20    19.20  201.13     4.94   13.78  2.45  93.16
rrqm/s:   每秒进行 merge 的读操作数目。即 delta(rmerge)/s
wrqm/s:  每秒进行 merge 的写操作数目。即 delta(wmerge)/s
r/s:           每秒完成的读 I/O 设备次数。即delta(rio)/s
w/s:         每秒完成的写 I/O 设备次数。即delta(wio)/s
rsec/s:    每秒读扇区数。即 delta(rsect)/s
wsec/s: 每秒写扇区数。即delta(wsect)/s
rkB/s:     每秒读K字节数。是 rsect/s 的一半,因为每扇区大小为512字节。(需要计算)
wkB/s:    每秒写K字节数。是 wsect/s 的一半。(需要计算)
avgrq-sz:平均每次设备I/O操作的数据大小 (扇区)。delta(rsect+wsect)/delta(rio+wio)
avgqu-sz: 平均I/O队列长度。即 delta(aveq)/s/1000 (因为aveq的单位为毫秒)。
await:    平均每次设备I/O操作的等待时间 (毫秒)。即 delta(ruse+wuse)/delta(rio+wio)
svctm:  平均每次设备I/O操作的服务时间 (毫秒)。即 delta(use)/delta(rio+wio)
%util:      一秒中有百分之多少的时间用于 I/O 操作,或者说一秒中有多少时间I/O 队列是非空的。即delta(use)/s/1000 (因为use的单位为毫秒)

如果 %util 接近 100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘可能存在瓶颈。

svctm 一般要小于 await (因为同时等待的请求的等待时间被重复计算了),
svctm 的大小一般和磁盘性能有关,CPU/内存的负荷也会对其有影响,请求过多也会间接导致 svctm 的增加。

await 的大小一般取决于服务时间(svctm) 以及 I/O 队列的长度和 I/O 请求的发出模式。如果 svctm 比较接近 await,说明 I/O 几乎没有等待时间;如果 await 远大于 svctm,说明 I/O 队列太长,应用得到的响应时间变慢,如果响应时间超过了用户可以容许的范围,这时可以考虑更换更快的磁盘,调整内核 elevator 算法,优化应用,或者升级 CPU。
   队列长度(avgqu-sz)也可作为衡量系统 I/O 负荷的指标,但由于 avgqu-sz 是按照单位时间的平均值,所以不能反映瞬间的 I/O 洪水。
io/s = r/s+w/s
await=(ruse+wuse)/io(每个请求的等待时间)
await*io/s=每秒内的I/O请求总共需要等待的ms
avgqu-sz=await*(r/s+w/s)/1000(队 列长度)
以下数据其实与 /proc/diskstats中除设备号与设备名外的其它数据是一一对应关系,只是统计的方法略有差别而已。
#cat/sys/block/sda/stat
17949157  1547772 466744707 17407052015855905 42781288 469298468 2406092114       2 137680700 2581025934


如果 %util接近100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘
可能存在瓶颈。
idle小于70% IO压力就较大了,一般读取速度有较多的wait.

同时可以结合vmstat 查看查看b参数(等待资源的进程数)和wa参数(IO等待所占用的CPU时间的百分比,高过30%时IO压力高)

另外还可以参考

一般:
svctm < await (因为同时等待的请求的等待时间被重复计算了),
svctm的大小一般和磁盘性能有关:CPU/内存的负荷也会对其有影响,请求过多也会间接导致 svctm 的增加。
await: await的大小一般取决于服务时间(svctm) 以及 I/O 队列的长度和 I/O 请求的发出模式。
如果 svctm 比较接近 await,说明I/O 几乎没有等待时间;
如果 await 远大于 svctm,说明 I/O队列太长,应用得到的响应时间变慢,
如果响应时间超过了用户可以容许的范围,这时可以考虑更换更快的磁盘,调整内核elevator算法,优化应用,或者升级 CPU。
队列长度(avgqu-sz)也可作为衡量系统 I/O 负荷的指标,但由于 avgqu-sz 是按照单位时间的平均值,所以不能反映瞬间的 I/O 洪水。

iostat的 语法如下:


程序代码
iostat [ -c | -d ] [ -k ] [ -t ] [ -V ] [ -x [ device ] ] [ interval [ count ]]

-c为汇报CPU的使用情况;
-d为汇报磁盘的使用情况;
-k表示每秒按kilobytes字节显示数据;
-t为打印汇报的时间;
-v表示打印出版本信息和用法;
-x device指定要统计的设备名称,默认为所有的设备;
interval指每次统计间隔的时间;
count指按照这个时间间隔统计的次数。

iostat在内核2.4和内核2.6中数据来源不太一样,对于kernel 2.4, iostat 的数据的主要来源是 /proc/partitions;在2.6中,数据来源主要是/proc/diskstats和/sys/block/sd*/stat这两个文件
#cat/proc/diskstats | grep sda
  8     0  sda   17945521 1547188   466667211  174042714   15853874 42776252   469241932 2406054445  0  137655809  2580960422
   8   1   sda1  936          1876          6                12
   8   2   sda2  19489178 466659986 58655070    469240224
   8   3   sda3  1270        1441          33               264
   8   4   sda4  4               8               0                 0
   8   5   sda5  648          1442          0                 0
   8   6   sda6  648          1442          0                 0

第1列 : 磁盘主设备号(major)
第2列 : 磁盘次设备号(minor)
第3列 : 磁盘的设备名(name)
第4列 : 读请求总数(rio)
第5列 : 合并的读请求总数(rmerge)
第6列 : 读扇区总数(rsect)
第7列 :   读数据花费的时间,单位是ms.(从__make_request到 end_that_request_last)(ruse)
第8列 :   写请求总数(wio)
第9列 :   合并的写请求总数(wmerge)
第10列 : 写扇区总数(wsect)
第11列 : 写数据花费的时间,单位是ms. (从__make_request到 end_that_request_last)(wuse)
第12列 : 现在正在进行的I/O数(running),等于I/O队列中请求数
第13列 : 系统真正花费在I/O上的时间,除去重复等待时间(aveq)
第14列 : 系统在I/O上花费的时间(use)。

你可能感兴趣的:(linux,算法,优化,merge,xen,磁盘)