什么是I/O虚拟化?
和所有形式的虚拟化技术一样,I/O虚拟化(简称“IOV”)支持企业通过虚拟化技术创建虚拟实例来完成对物理资源的整合。在这里I/O(输入/输出)资源被虚拟化并且在虚拟及物理服务器和存储组件之间共享。I/O包含了所有支撑在存储、数据中心服务器以及网络其他部分(网卡,HBA卡及cpu)间进行高速数据传输的组件。I/o虚拟化可以使企业通过按需分配虚拟化资源来提高I/O使用率,通过使用较少的物理组件来节约空间及能源。
为什么虚拟化I/O ?
在物理环境中,每台服务器都需要有自己完整的一套网卡、光纤卡和CPU来进行连接,而在虚拟化环境中,这种需求变得更加复杂,因为每台虚拟机都需要共享寄存主机的带宽及I/O资源,照此情况,虚拟机之间会竞争I/O资源,造成I/O瓶颈。管理员可以动态分配虚拟化I/O的资源池,来满足每台虚拟服务器的需求,并使得物理服务器的物理I/O得以物尽其用。在物理服务器环境中,即使是在虚拟服务器正需要使用I/O时,I/O的利用率也可能会低至5%或6%。而使用I/O虚拟化技术,则可以将这一利用率提高至50%甚至80%。
什么是融合I/O?
融合I/O设备和软件是I/O虚拟化的基本建筑模块。由于数据和应用程序都在存储网络,数据中心服务器以及局域网之间移动,所以企业可以利用这种技术来统一管理光纤上流动的各种类型的流量。
许多网络管理人员都认为融合I/O就是光纤以太网(FCoE)——或封装光纤通道(FC)流量的能力,这样可便于在以太网骨干网上运行。虽然现在已经有一批供应商,如Cisco、Brocade等,都发布了FCoE-ready组件,但融合I/O包含了几种数据和存储传输组合,例如以太网上的Infiniband,或者反之。
一般情况下,虚拟化I/O和融合I/O是通过安装在刀片服务器、虚拟I/O网关或交换机上整合的网络适配器(CNAs)池,或共享的虚拟NIC池来实现的。CAN可以识别并处理不同种类的流量,并将它们汇聚到一个网络或单独的骨干网上。这些网关通常都是扩展的 PCI Express (PCIe)卡池的形式。
PCI-SIG已经制定了规范,以便在虚拟I/O环境中使用PCIe设备功能。单根I/O虚拟化(SR-IOV)是一个PCI-SIG规范,它使得一个PCIe卡显示为多个物理设备来满足一个操作系统的服务需求,而多根I/O虚拟化(MR-IOV)规范一次只支持一个PCIe设备显示为多个服务多系统。
在FCoE-ready组件中,Cisco和Brocade都推出了架顶式交换机——Nexus 5000和Brocade 8000——其端口兼容以太网和光纤流量。这些交换机通过以太网以及光纤通道上行链路连接数据中心服务器到局域网核心以及SAN。Cisco,HP以及IBM都已经在他们的刀片服务器机箱产品中集成了I/O虚拟化功能模块,使得管理员可以按需将I/O资源分配到刀片服务器,并封装FC流量到以太网。
其他供应商,诸如IBM,HP,已经开发出允许一个物理NIC以多个虚拟网卡形式出现的软件。这类软件允许管理员动态地创建LAN和SAN地址池,并且上游交换机视这些上行链路为聚合的NIC 。
并不是每个公司都做好了投资昂贵的刀片服务器交换组合,或来自大厂商的复杂软件,来开启这条漫长的网络融合之路。用户常常会把目光投向诸如Xsigo,Aprius,Virtensys,NextIO和 Mellanox这样的第三方软件供应商,这些供应商会将I/O虚拟化和融合I/O设备或软件添加到已在使用中的服务器上。
I/O虚拟化设备:PCIe总线扩展器及软件方法
PCIe总线扩展器,有时也被认为是交换PCIe——扩展PCI适配器功能至所谓的卡笼。这个笼或网关包含了一组能够支持以太网,FC,InfiniBand,SAS/SATA以及iSCSI的I/O卡。一些服务器和SAN组件能够与动态创建智能(dynamic provisioning intelligence)分享这个笼。
不同于使用扩展器连接到网关,Xsigo Systems提出了一种软硬件组合的方法,它使用现有的服务器上的以太网适配器连接到网关或I/O适配器。Xsigo I/O Director的目标是降低在实施融合I/O和I/O虚拟化过程中的复杂性。这种方法可能比PCIe总线扩展器的方法要昂贵些。
并非所有虚拟I/O设备供应商都以全以太网化为目标
Mellanox BridgeX就带来了在InfiniBand上的融合I/O产品。Mellanox使用适配器将Ethernet 或Fibre Channel流量封装到Infiniband上。同时,Mellanox技术也能够封装Infiniband流量到以太网上。Mellanox BridgeX BX5020支持融合以太网标准上的远程直接内存访问 (RDMA)技术可以使Infiniband在以太网骨干网上运行。
为融合数据中心网络增强以太网
在供应商们整合以太网架构上的数据和存储流量之前,他们首先必须要开发出以太网无损技术。在以往的情况中,数据流可以容忍丢包现象,而存储流量则不可以,丢包会损坏存储阵列上的数据。以太网行业正在寻求解决这一问题的增强融合以太网(CEE)和数据中心桥接 (DCB)技术,IEEE和IETF在分别进行无损以太网标准的制定。目标是对现有以太网增加扩展以确保可靠性,而不依赖过于复杂且会造成自身延迟的TCP。CEE和DCB会在四个方面增强以太网性能:SAN及LAN流量的优化与分化,SAN流量的无损传输,数据传输最短路径,以及更严格的配置管理。
融合数据中心网络上的Trill或802.1aq
当企业向融合数据中心网络移动时,原有的生成树协议(STP)将会成为一种阻碍。由于二层以太网的广播技术,帧会被自然地发送到每个可用的链路上。在广播风暴中,这个广播特性可能会导致一个设备到另一个设备的多路连接或死循环、网络过载。虽然生成树通过允许网络中一个点到另一个点只有一条路径,其他路径都关闭的方法消除了环路问题,但是这在虚拟数据中心网络中却是无效的。
关于这个问题的解决办法,目前有两个提议:多链接透明互联(TRILL),及802.1aq或者最短路径桥接。TRILL和802.1aq都已经接近标准化了,它们所使用的技术是RBridge(Routing Bridges),用IS-IS(Intermediate System to Intermediate System)路由协议来找可能的最短路径。TRILL很有可能会统治桥接协议。