虚拟桌面系统依赖存储基础架构来承载用户环境和操作系统的不同部分。如果没有合适的存储系统的设计,用户的虚拟桌面会变得越来越慢,然后直到不可用,因为存储变为了最大的瓶颈。为了恰当的设计存储基础设施,除了存储容量外,我们还需要能够计算虚拟桌面系统需要的以及存储系统能够提供的每秒Input/Output Operations (也就是俗称的IOPS)。计算和评估IOPS 需要从以下几方面考虑:

(1)磁盘IOPS的理论推算

磁盘是整个存储系统的最基本组成单元,它完成一个I/O请求所花费的时间是由寻道时间、旋转延迟和数据传输时间三部分构成:

寻道时间Tseek是指将读写磁头移动至正确的磁道上所需要的时间。寻道时间越短,I/O操作越快,目前磁盘的平均寻道时间一般在3-15ms。

旋转延迟Trotation是指盘片旋转将请求数据所在扇区移至读写磁头下方所需要的时间。旋转延迟取决于磁盘转速,通常使用磁盘旋转一周所需时间的1/2表示。比如,7200 rpm的磁盘平均旋转延迟大约为60*1000/7200/2 = 4.17ms,而转速为15000 rpm的磁盘其平均旋转延迟约为2ms。

数据传输时间Ttransfer是指完成传输所请求的数据所需要的时间,它取决于数据传输率,其值等于数据大小除以数据传输率。目前IDE/ATA能达到133MB/s,SATA II可达到300MB/s的接口数据传输率,数据传输时间通常远小于前两部分时间。因此,理论上可以计算出磁盘的最大IOPS,即IOPS = 1000 ms/ (Tseek + Troatation),忽略数据传输时间。假设磁盘平均物理寻道时间为3ms, 磁盘转速为7200,10K,15K rpm,则磁盘IOPS理论最大值分别为,

IOPS = 1000 / (3 + 60000/7200/2) = 140

IOPS = 1000 / (3 + 60000/10000/2) = 167

IOPS = 1000 / (3 + 60000/15000/2) = 200

需要注意的是,上述计算中磁盘平均寻道时间的取值对计算结果的有较大的影响,所以我们推算时应该了解清楚存储系统中使用磁盘的这个参数;同时为了提升磁盘的IO速度,所有的磁盘都会带有缓存(Disk Buffer),这也是为何有时候会看到磁盘的IOPS值大于上述理论计算值的原因.

 

(2)磁盘Raid IOPS的理论推算

通常我们在使用存储系统的时候,都是把多个磁盘建成一个Raid,这时候这个由多个磁盘构成的RAID的IOPS就跟我们采用的RAID LEVEL有很大关系:

磁盘Raid读IOPS:

无论是那种RAID LEVEL,总的读取性能都是所有磁盘之和,所以可以得出下面的读取IOPS:

RAID read IOPS = disk_IOPS/(1-disk_ buffer_read_hit_ratio)*disk_num

磁盘Raid写IOPS:

但是不同RADI LEVEL,其写性能则会由于不同类型的数据冗余影响实际写的数量(这也称为写惩罚,penalty):

RAID 0: 无RAID 惩罚

RAID 1: penalty of 2

RAID 10: Penalty of 2

RAID 5: Penalty of 4 

RAID 6: Penalty of 6

RAID write IOPS =disk_IOPS/(1-disk_buffer_write_hit_ratio)*disk_num/ penalty

在实际应用场景中,RAID中的磁盘不可能永远只读或只写,因此这时候其平均的IOPS就跟平均的读写比例有关,其计算公式应该为:

RAID平均IOPS=写入IOPS×write_ratio+读IOPS×read_ratio

 

下面举例说明:假设在Citrix Xendesktop 5的MCS环境中,组成RAID的单个磁盘的随机读写的IOPS为140,读写缓存命中率都为10%,组成阵列的磁盘个数为4。

这样RAID的读IOPS:

read IOPS = disk_IOPS/(1-disk_buffer_read_hit_ratio)*disk_num =140/(1-10%)*4 = 622

写入IOPS

RAID0 write IOPS =disk_IOPS/(1- disk_buffer_write_hit_ratio)*disk_num/ Penalty =140/(1-10%)*4/1 = 622

RAID1 write IOPS =disk_IOPS/(1- disk_buffer_write_hit_ratio)*disk_num/ Penalty =140/(1-10%)*4/2 = 311

RAID5 write IOPS =disk_IOPS/(1- disk_buffer_write_hit_ratio)*disk_num/ Penalty =140/(1-10%)*4/4 = 155

RAID6 write IOPS =disk_IOPS/(1- disk_buffer_write_hit_ratio)*disk_num/ Penalty =140/(1-10%)*4/6 = 103

总IOPS

由于MCS的读写比例为50:50,所以这时候不同RAID LEVEL的总IOPS平均值分别为

RAID0 IOPS = 622 × 0.5 + 622 × 0.5 = 622

RAID1 IOPS = 622 × 0.5 + 311 × 0.5 = 466.5

RAID5 IOPS = 622 × 0.5 + 155 × 0.5 = 388.5

RAID6 IOPS = 622 × 0.5 + 103 × 0.5 = 362.5

 

(3)磁盘阵列IOPS的推算

现代的磁盘阵列为了进一步提升性能,在其控制器上一般都会再加上缓存(SDRAM),有的还有第二级的缓存(Flash Memory),这样一来整个阵列和其中某个RIAD的IOPS就变得难以计算。

当前很多厂商公布的那些非常高的IOPS数据实际上是将被测存储系统配置了尽量多的小容量、高转速磁盘且每个磁盘装载数据量不多、设置为RAID-10时测出的100%顺序读(Sequential Read)IOPS的最大值。而且很多厂商在公布上述100%顺序读(Sequential Read)IOPS时还隐去了“100%顺序读”字样,笼统地称为IOPS。但多数用户实际使用的环境既有顺序读写、也有随机读写操作;传输数据块尺寸大小都有;为了有效利用存储系统的存储容量,很多用户都采用RAID-5,而且尽量使用大容量磁盘来减少磁盘数量,以少占存储系统的宝贵槽位空间。因此厂商测试环境得到的100%顺序读(Sequential Read)IOPS指标完全不能代表该存储产品在用户实际应用环境下的性能。这就是厂商公布的IOPS很高,而产品在用户实际使用环境中性能却很差的原因。

既然很难计算,而厂商提供的数据也不能信任,那我们怎么办呢?幸运的是我们还有SPC和SPC-1 IOPS可以信任和参考。SPC的全称是Storage Performance Council(即:存储性能理事会),它的成员由几乎全部的国外存储厂商和部分大学、研究机构组成,SPC是一个非赢利的组织,其使命是定义、标准化存储系统的基准测试,并提升存储系统基准测试的知名度、扩展其影响,使之成为计算机行业最具权威性的存储性能测试结果,使计算机用户可以不受现存混乱的各种存储性能测试结果的影响。目前SPC的SPC-1基准测试主要是针对随机I/O应用环境的,SPC-2基准测试主要是针对顺序I/O应用环境的。SPC-1基准测试很好地模拟了OLTP、数据库和e-mail等真实应用环境,使SPC-1基准测试结果具有很高权威性和可比性。查询各存储厂商的SPC-1基准测试报告,可访问http://www.storageperformance.org/results 。测试报告中列明了进行测试的存储系统配置。但是要注意的是,这些测试结果我们不能直接引用,因为测试的存储系统配置和我们实际项目中的配置肯定不同。但这时我们的可以通过下列方法大致推算实际配置的存储系统的总IOPS:

磁盘阵列的总IOPS=SPC-1测试值×实际项目中配置的磁盘数量/SPC-1测试配置的磁盘数量

这个测试数值另外一个重要的意义在于它使我们可以知道这种存储系统在某种配置情况下,实测IOPS跟我们通过上述第(1)(2)中介绍的方法计算出来的总IOPS理论值之间的比例,这个比例(我称为提升因子)代表了阵列中的缓存和其他技术手段对IO起到的提升作用。换句话说,得到这个因子以后,我们在对存储系统中某个RAID的IOPS理论计算就可以乘上这个因子。有些厂商也直接告诉你这个因子,比如说NETAPP就宣称采用PAM缓存卡可降低75%的读IO,WAFL写优化可降低50%的写IO等等,这里的1/(1-75)%和1/(1-50%)就可以看作提升因子,只不过可信度有多少就不知道了。

 

(4)桌面虚拟化场景下磁盘阵列IOPS的评估

在实际运行中每个桌面VM有不同的工作状态,一般而言每中工作状态对存储子系统都有不同的要求:

1.工作状态:

轻量: 4-8 IOPS

普通: 8-15 IOPS

重量: 15-30 IOPS

2.空闲状态: 4 IOPS

3.登出状态: 12 IOPS

4. Offline状态: 0 IOPS

 

那么在桌面虚拟化环境下,我们如何评估一个存储系统能否满足桌面虚拟化系统的使用要求呢?我认为可以从两个方面考虑:

a.整个系统IOPS总需求与总供给:比如我们总共需要提供给研发用户5000台重量级VM,每台VM峰值IOPS需求是30,那么总需求就是150000;每个磁盘阵列提供的IOPS大约为SPC-1测试值×实际项目中配置的磁盘数量/SPC-1测试配置的磁盘数量,总IOPS供给=磁盘阵列提供的IOPS×磁盘阵列数量。这样我们就能计算出整个存储配置能否满足项目的需求。

b.每个SR(一个LUN,一般对应存储阵列上的由多个磁盘组成的一个RAID)的IOPS需求与供给:根据最佳实践,每个SR上放置25-30台VM,按照25台计算,因此需求是25×30=750 IOPS;而对应的RAID的供给可以由(2)中推算的的RAID总IOPS×(3)的提升因子计算得到。这样我们就可以判断具体某一个SR(RAID)的磁盘配置能否满足项目的需要。


转载:

http://www.gzgpt.com/info_list.asp?id=64