虚拟化I/O整合后虚拟化服务器接入网络环境
2013-01-25 机房360 编辑:佚名
虚拟化I/O整合
首先对服务器接入实现I/O资源整合是网络迫在眉睫的优化方向。传统服务器虚拟化后为保证每个虚机的I/O和虚拟化系统集群所需的网络互连性能,往往需要6~8个千兆网卡、2个HBA存储卡以及服务器管理网口等等,不可避免导致管理复杂、I/O效率低下和网络设备成本增加。
因此I/O整合技术应运而生,它包括几个方面:
●服务器使用更高带宽链路(如10G以太网)替代传统千兆链路;
●网卡进行虚拟化实现多个虚拟网卡(vNIC);
●以太网承载FiberChannel存储协议和数据,实现虚拟存储卡(vHBA)。
万兆以太网接入提供了更大的I/O接入带宽,可缓解虚机I/O紧张的问题。而万兆网卡虚拟化为多个vNIC后,不仅可以拥有和原来多物理网卡一样的使用体验,而且还可进一步分配给多个虚机和Hypervisor本身使用,使每个虚机或系统连接保持独特的网络策略和服务质量。
这个技术在早先一般通过PCISIGWorkGroup提出的标准SingleRoot-IOVirtualization(SR-IOV)实现,但该技术没有解决交换机端口对虚拟网卡的识别问题,也没有对虚拟网卡提供更细致的QoS功能。
最早具有端到端虚拟化功能的是支持IEEE802.1BR/Qbh标准的以太网卡和以太网交换机。该系统上每网卡不仅能提供多个虚拟网卡,而且还通过对以太网帧的VN-Tag标记,实现交换机端口上对每个虚拟网卡的识别,并可在网卡上灵活划分每个虚拟网卡的资源,实现精细粒度的QoS管理。
另一方面,通过ANSIINCITST11的FiberChannelOverEthernet(FCoE)技术,可将传统的FC存储网络功能融合到以太网中,这对于愈来愈注重内存计算而导致外存读写批次化、集中化的新一代OLTP类应用而言,无疑是对网络的资源利用率的大幅度提升,同时也简化了管理。
I/O整合后的实际效果如何呢?
以8口千兆、2口HBA的传统服务器接入方式为例,在经过以上万兆化、虚拟化和FCoE整合化之后,仅仅需要一对冗余双活的万兆CNA(ConvergedNetworkAdapter)网卡即可完成原来的所有功能,并且存储I/O性能提升10%,CPU占用低8%,布线管理复杂度降低了80%,接口卡成本降低40%,接入交换机成本则只有原来的四分之一,网络功耗降低30%,数据带宽从8G提升到20G,存储带宽从16G提升到20G*。
目前主流的服务器厂商都提供CNA网卡选项,其中使用Cisco芯片和BroadcomBCM57712芯片的网卡还能够支持IEEE802.1BR/Qbh,以实现和交换机相互配合的端到端虚拟化。
网络的虚机感知
虚机感知网络主要有两类解决方案:一类是以CiscoNexus1000v为代表的“软”解决方案,另一类是以IEEE802.1BR和IEEE802.1Qbg为代表的“硬”解决方案。
“软”解决方案通过替代Hypervisor内的虚拟交换机为更智能的分布式虚拟交换机来解决策略迁移和管理配置一致性问题,用户的使用体验是只需登录一个集中管理点,就可以使用熟悉的物理交换机管理界面来配置和管理集群内所有连接虚机的虚拟交换机端口,物理网络中的Netflow、SPAN、PVLAN、QoS和ACL等智能策略也能够“无损的”迁移到虚拟交换机中来,保证企业全局策略的一致性。
另一类方案是通过物理交换机、物理网卡和Hypervisor系统共同遵循一个标准协议来实现上述虚机感知使用体验的“硬”解决方案。
其代表是Cisco/VMware主导的IEEE802.1Qbh和后来的HP主导的IEEE802.1Qbg(VEPA),各自具备鲜明的技术特点。
其中,802.1Qbh商用化较早,性能高、功能全面、可扩展性好,由于VMware等Hypervisor厂商的积极参与,其虚机兼容性和诸如Hypervisor-Bypass等高性能特性也非其他解决方案所能及,但它需要交换机和网卡的硬件支持;
而802.1Qbg是一种对传统设备的“改良方案”,借用已有协议通过修改软件来实现近似功能,因而对硬件依赖性小,但也因此无法避免“改良方案”所带来的功能和性能的局限。
其实与国内一些出于自身利益而将二者截然对立的观念不同,这两类协议其实一直在相互借鉴、共同发展,在802.1Qbg编撰者中不难找到Qbh的Cisco专家的身影,而802.1Qbh的延续802.1BR也宣称会兼容Qbg的VEPA。
从当前看,IEEE802.1BR占据了市场先机,并在IEEE标准规划上级别更高,对Qbg也采用比较“宽容”的兼容并蓄的态度,市场前景更为光明。
首先对服务器接入实现I/O资源整合是网络迫在眉睫的优化方向。传统服务器虚拟化后为保证每个虚机的I/O和虚拟化系统集群所需的网络互连性能,往往需要6~8个千兆网卡、2个HBA存储卡以及服务器管理网口等等,不可避免导致管理复杂、I/O效率低下和网络设备成本增加。
因此I/O整合技术应运而生,它包括几个方面:
●服务器使用更高带宽链路(如10G以太网)替代传统千兆链路;
●网卡进行虚拟化实现多个虚拟网卡(vNIC);
●以太网承载FiberChannel存储协议和数据,实现虚拟存储卡(vHBA)。
万兆以太网接入提供了更大的I/O接入带宽,可缓解虚机I/O紧张的问题。而万兆网卡虚拟化为多个vNIC后,不仅可以拥有和原来多物理网卡一样的使用体验,而且还可进一步分配给多个虚机和Hypervisor本身使用,使每个虚机或系统连接保持独特的网络策略和服务质量。
这个技术在早先一般通过PCISIGWorkGroup提出的标准SingleRoot-IOVirtualization(SR-IOV)实现,但该技术没有解决交换机端口对虚拟网卡的识别问题,也没有对虚拟网卡提供更细致的QoS功能。
最早具有端到端虚拟化功能的是支持IEEE802.1BR/Qbh标准的以太网卡和以太网交换机。该系统上每网卡不仅能提供多个虚拟网卡,而且还通过对以太网帧的VN-Tag标记,实现交换机端口上对每个虚拟网卡的识别,并可在网卡上灵活划分每个虚拟网卡的资源,实现精细粒度的QoS管理。
另一方面,通过ANSIINCITST11的FiberChannelOverEthernet(FCoE)技术,可将传统的FC存储网络功能融合到以太网中,这对于愈来愈注重内存计算而导致外存读写批次化、集中化的新一代OLTP类应用而言,无疑是对网络的资源利用率的大幅度提升,同时也简化了管理。
I/O整合后的实际效果如何呢?
以8口千兆、2口HBA的传统服务器接入方式为例,在经过以上万兆化、虚拟化和FCoE整合化之后,仅仅需要一对冗余双活的万兆CNA(ConvergedNetworkAdapter)网卡即可完成原来的所有功能,并且存储I/O性能提升10%,CPU占用低8%,布线管理复杂度降低了80%,接口卡成本降低40%,接入交换机成本则只有原来的四分之一,网络功耗降低30%,数据带宽从8G提升到20G,存储带宽从16G提升到20G*。
目前主流的服务器厂商都提供CNA网卡选项,其中使用Cisco芯片和BroadcomBCM57712芯片的网卡还能够支持IEEE802.1BR/Qbh,以实现和交换机相互配合的端到端虚拟化。
网络的虚机感知
虚机感知网络主要有两类解决方案:一类是以CiscoNexus1000v为代表的“软”解决方案,另一类是以IEEE802.1BR和IEEE802.1Qbg为代表的“硬”解决方案。
“软”解决方案通过替代Hypervisor内的虚拟交换机为更智能的分布式虚拟交换机来解决策略迁移和管理配置一致性问题,用户的使用体验是只需登录一个集中管理点,就可以使用熟悉的物理交换机管理界面来配置和管理集群内所有连接虚机的虚拟交换机端口,物理网络中的Netflow、SPAN、PVLAN、QoS和ACL等智能策略也能够“无损的”迁移到虚拟交换机中来,保证企业全局策略的一致性。
另一类方案是通过物理交换机、物理网卡和Hypervisor系统共同遵循一个标准协议来实现上述虚机感知使用体验的“硬”解决方案。
其代表是Cisco/VMware主导的IEEE802.1Qbh和后来的HP主导的IEEE802.1Qbg(VEPA),各自具备鲜明的技术特点。
其中,802.1Qbh商用化较早,性能高、功能全面、可扩展性好,由于VMware等Hypervisor厂商的积极参与,其虚机兼容性和诸如Hypervisor-Bypass等高性能特性也非其他解决方案所能及,但它需要交换机和网卡的硬件支持;
而802.1Qbg是一种对传统设备的“改良方案”,借用已有协议通过修改软件来实现近似功能,因而对硬件依赖性小,但也因此无法避免“改良方案”所带来的功能和性能的局限。
其实与国内一些出于自身利益而将二者截然对立的观念不同,这两类协议其实一直在相互借鉴、共同发展,在802.1Qbg编撰者中不难找到Qbh的Cisco专家的身影,而802.1Qbh的延续802.1BR也宣称会兼容Qbg的VEPA。
从当前看,IEEE802.1BR占据了市场先机,并在IEEE标准规划上级别更高,对Qbg也采用比较“宽容”的兼容并蓄的态度,市场前景更为光明。