QEMU-KVM I/O性能优化之Virtio-blk-data-plane

这篇文章介绍了基于virtio-blk的加速技术virtio-blk-data-plane,转过来收藏下,当然这个技术在当前业界的应用中正逐步被vhost_user机制取代,后续一起关注。

原文地址:http://blog.csdn.net/memblaze_2011/article/details/48808147

 

为了充分利用服务器资源,根据工作负载动态配置服务器,减少服务部署周期等问题,IT机构中引入了虚拟化。QEMU-KVM作为Linux平台上的开源虚拟化方案,从诞生开始就以其开放的姿态,吸引众多开发人员,许多虚拟化的新技术都是首先在QEMU-KVM上应用,再在其他虚拟平台上实现推广的。

传统的QEMU-KVM受限于big-qemu-lock机制,IOPS只能达到15万左右。虽然这对于一个虚拟机是已经是非常高的I/O性能了,但随着虚拟化的技术的完善,许多企业级业务,例如数据库、ERP系统以及对低延迟要求较高的金融业务等也往QEMU-KVM上迁移,这些业务需要达50万甚至更高的IOPS性能以及更低的I/O延迟。为了实现系统IOPS性能的突破,Virtio-blk-data-plane技术应运而生。

技术原理

Virtio-blk-data-plane是在Red Hat Enterprise Linux 6.4版本开始引入,由Red Hat KVM 开发团队与IBM 技术中心性能优化组织共同开发完成的。如下图所示,Virtio-blk-data-plane允许块I/O处理操作与其他的虚拟设备并行运行,去除big-qemu-lock的影响,达到高I/O性能的结果。

QEMU-KVM I/O性能优化之Virtio-blk-data-plane_第1张图片

使用Virtio-blk-data-plane,由QEMU虚拟出的设备运行在用户空间,其提高I/O性能的关键在于为各virtio-blk虚拟设备提供设备专用线程,同其他组件相隔离,避免与其他组件竞争big-qemu-lock。这些为virtio-blk设备提供的专用线程被称为Virtio-blk-data-plane线程,在提交guest I/O请求到host端时,不再需要因保护QEMU内部硬件仿真代码而参与big-qemu-lock的竞争,从而获得高I/O性能。

通常每个块设备有一个专用Virtio-blk-data-plane线程,若想取得更好的I/O性能,virtio-blk-data-plane还可以采用ioeventfd/irqfd的机制,以及Linux内核的异步aio机制用于处理客户机的I/O请求。

由于Virtio-blk-data-plane是为每个Virtio-blk设备分配专用线程,该架构导致部分虚拟化特性不支持。如当前只有raw格式支持Virtio-blk-data-plane,存储镜像迁移,热插拔,I/O流控等,而这些特性在原始的virtio-blk中是支持的。

测试

本次测试的服务器配置如下:

QEMU-KVM I/O性能优化之Virtio-blk-data-plane_第2张图片

 

虚拟机配置

QEMU-KVM I/O性能优化之Virtio-blk-data-plane_第3张图片

测试方法

本次测试架构图如下所示:

QEMU-KVM I/O性能优化之Virtio-blk-data-plane_第4张图片

 

测试方法为将PBlaze4 SSD插入服务器,进行安全擦除,然后通过fio对裸盘进行随机预处理操作(随机写满设备两遍,即运行裸盘随机预处理脚本两遍)。然后将SSD格式化为ext4文件系统,进行文件系统随机预处理(7个文件,随机写5小时),为已经创建好的虚拟机添加virtio-blk设备7个并打开virtio-blk-data-plane特性,启动虚拟机。

虚拟机内部通过fio对virtio-blk裸设备进行随机写预处理5小时,然后再进行测试,测试脚本如下:

虚拟机随机写测试脚本:

 

[plain] view plain copy

  1. [root@1vm]# cat 4krw  
  2. [global]  
  3. ioengine=libaio  
  4. direct=1  
  5. thread=1  
  6. norandommap=1  
  7. randrepeat=0  
  8. group_reporting  
  9. write_bw_log=4krw  
  10. write_lat_log=4krwt  
  11. write_iops_log=4krw  
  12. log_avg_msec=1000  
  13. rw=randwrite  
  14. bs=4k  
  15. numjobs=1  
  16. iodepth=32  
  17. group_reporting=1  
  18. time_based  
  19. runtime=7200  
  20.   
  21. [vdb]  
  22. filename=/dev/vdb  
  23. [vdc]  
  24. filename=/dev/vdc  
  25. [vdd]  
  26. filename=/dev/vdd  
  27. [vde]  
  28. filename=/dev/vde  
  29. [vdf]  
  30. filename=/dev/vdf  
  31. [vdg]  
  32. filename=/dev/vdg  
  33. [vdh]  
  34. filename=/dev/vdh  


虚拟机随机读测试脚本:

 

 

[plain] view plain copy

  1. [root@1vm]# cat 4krr  
  2. [global]  
  3. ioengine=libaio  
  4. direct=1  
  5. thread=1  
  6. randrepeat=0  
  7. norandommap=1  
  8. write_bw_log=4krr_bw  
  9. write_lat_log=4krr_lat  
  10. write_iops_log=4krr_iops  
  11. log_avg_msec=1000  
  12. rw=randread  
  13. bs=4k  
  14. numjobs=1  
  15. iodepth=256  
  16. group_reporting=1  
  17. time_based  
  18. runtime=7200  
  19.   
  20. [vdb]  
  21. filename=/dev/vdb  
  22. [vdc]  
  23. filename=/dev/vdc  
  24. [vdd]  
  25. filename=/dev/vdd  
  26. [vde]  
  27. filename=/dev/vde  
  28. [vdf]  
  29. filename=/dev/vdf  
  30. [vdg]  
  31. filename=/dev/vdg  
  32. [vdh]  
  33. filename=/dev/vdh  


测试结果

 

本次测试中出了涉及Virtio-blk-data-plane优化性能以外,还涉及其他qemu-kvm优化项:

  1. PV-EOI
  2. X2APIC
  3. 虚拟机中使用TSC时钟


以下是本次随机读写测试结果图,仅供参考。

 

随机写测试结果(IOPS):

QEMU-KVM I/O性能优化之Virtio-blk-data-plane_第5张图片

 

 

随机读测试结果(IOPS):

 

QEMU-KVM I/O性能优化之Virtio-blk-data-plane_第6张图片

你可能感兴趣的:(虚拟化技术,QEMU,KVM,virtio-blk,虚拟化)