解析Dell新一代PowerEdge服务器
2010-04-14 ZDNet 编辑:赵效民
新一代PowerEdge服务器概述
Dell在中国北京宣布了2010年的服务器与存储市场发展战略,同时也公布了新一代的PowerEdge M/R系列与全新的C系列服务器。预示着Dell之2010年的服务器产品布局全面展开。本站之前已经介绍了Dell在新一年中在服务器市场上的虚拟化开放解决方案与云计算基础架构策略,今天我们将着重介绍配合Dell这两大战略所推出服务器产品线。
虽然英特尔在3月份接连发布了两款新一代至强处理器5600与7500,但由于至强5600完全兼容至强5500平台,所以新一代的M/R系列服务器并没有在至强5600基础上推出新品(原有基于至强5500的M/R系列服务器,将平滑升级至至强5600),而集中在了至强7500系列。另外,AMD在3月29日也推出了新一代的12核心皓龙6100系列处理器,由于与前代的伊斯坦布尔(皓龙2400/8400系列)处理器平台不兼容,所以这次Dell也更新了基于皓龙6100的产品线。
新一代刀片M与机架R系列服务器,其中在了中高端的4插槽市场,主攻虚拟化应用市场
有关至强5600、至强7500、皓龙6100处理器的情况,我们已经报道很多了,大家可参考相关的专区介绍。而有关这些服务器的详细介绍见下文,在这里则有必要着重讲讲新推出的C系列服务器。
简单来说,PowerEdge C系列服务器是Dell对市场进行细分的结果,它的目标就是日益火热的云计算市场,由于Dell公司是当前云计算平台基础架构最大的系统供应商,所以它对于这一市场的需求以及产品设计更有体会。
现在很多大型的数据中心,尤其是巨型网站的数据中心,所采用的服务器都是定制的,它们有很明确的定向需求,一般都是结构很简单,但能效比很高的设计。然而这种设计在一定程度上也极大限制了硬件扩展与搭配的灵活性,适用面很窄,而云计算时代则让很多企业的数据中心也向这样的模式靠拢,但需求又没有如此的苛刻,所以在某种程度上又将形成一个通用的市场,这就是PowerEdge C的机会所在。
基于至强5600/5500处理器的PowerEdge C系列服务器的产品特性与市场定位
PowerEdge C系列服务器采用了英特尔的至强5600与5500系列处理器,仅有双插槽设计,以提供最佳的成本优势。与传统的R系列双插槽服务器相比,主要的不同就在于对于处理密度的追求上,因为云计算平台需要很强大的运算能力(包括虚拟化能力),因此就需要在单节点的性能密度与成本上有综合的考量,C系列在这方面做了有意的加强,这从其内存DIMM数量、硬盘槽位数量上就能体现出来,较传统的R系列双插槽服务器具有更高的软件灵活性与可用性。当然,除了云计算平台外,其他需要更高的运算与存储密度应用领域也同样适用于C系列服务器,只是云计算是一个最为著名的代表,所以也成为了PowerEdge C(Cloud)的代表。
虽然x86服务器的同质化很严重,毕竟CPU与平台的基本架构是统一的,但顶级的服务器厂商都会有自己创新设计来增加产品的亮点,在这方面Dell除了在市场细分方面下功夫而推出新的C系列服务器产品外,也有自己的少创新设计。
Dell新一代服务器设计亮点体现在4个方面,主要集中在新一代的基于至强7500/6500的M与R系列服务器上
借助于至强7500/6500较上一代至强7400的规格提升,性能与可扩展能力的提高自不多说,简化系统管理则是在以往的基础上进一步加强与改进,借助于独特的服务器生命周期控制器(Lifecycle Controller)让Dell独家的统一服务器配置器(USC,Unified Server Configurator)发挥更大的效力。
Dell的统一服务器配置器是基于替代传统BIOS的UEFI(Unified Extensible Firmware Interface,统一扩展固件接口)环境的一种扩展应用,方便用户更直观的管理服务器
生命周期控制器是一颗闪存芯片,集成在服务器上,能够在加载操作系统前的环境中利用统一服务器配置器的直观界面,来执行一整套配置任务,例如系统部署、系统更新、硬件配置和诊断等,从而简化了管理员的任务, 由此避免了使用和维护多个分散的CD/DVD介质。
双SD模块实现了对底层虚拟化管理器(Hypervisor)的冗余保护,提高了虚拟化平台的可靠性
双SD模块是Dell针对虚拟化越来越普及的趋势而设计。目前,虚拟化已经逐渐成为了服务器的一个主流应用,因此也有必要在底层加强虚拟化实施的可靠性,而双SD模块在实现嵌入虚拟化Hypervisor的同时,也实现了当SD卡出现问题时,则自动切换至另一个SD卡上的Hypervisor的功能。该功能主要用在以虚拟化为应用重点的服务器上,如最新的R810、M910、R910与R815上。
不过,在笔者看来新一代R/M系列服务器上最为引人瞩目的设计亮点当属FlexMem Bridge,不过它仅应用于R810与M910服务器上。这两款4插槽至强7500/6500服务器在设计上很特别,为了简单系统的设计复杂度,降低成本,并保证用户搭配的灵活性,每颗处理器只使用一个SMI(Scalable Memory Interconnect,可扩展内存互连)内存控制器,每个控制器控制两个内存通道。但至强7500/6500标配两个SMI控制器,这样一来,每个插槽实际配备的DIMM数量为4个,4个插槽共32个。FlexMem Bridge设计的用意就在于当用户只配两个至强7500/6500处理器时,仍然可以使用全部的32个DIMM,这其实是与标准的双插槽至强7500/6500的设计一样。
Dell的FlexMem Bridge设计,可以让空插槽的DIMM仍然能被利用
这就是FlexMem Bridge芯片,与至强7500/6500插槽兼容
FlexMem Bridge可看作是一个颗内存桥接芯片,在使用时,占用一个至强7500/6500的插槽,其内置两个SMI与一个QPI的传递链接通路,可以利用已经安装的至强7500/6500处理器的另一个空闲的SMI控制器访问FlexMem Bridge所连接的8个的DIMM,当然这之间还要通过英特尔的7500可扩展内存缓冲器(SMB,Scalable Memory Buffer)连接。
我们现在还不清楚,FlexMem Bridge的数据是通过SMI链路直接传输,还是走QPI总线。如果从上面的示意图来看,笔者觉得应该是走SMI直连的思路,而且就带宽来计算,单向QPI(以6.4GT/s的速率计算)的带宽只有12.8GB/s,而双路DDR3-1066的带宽就达17GB/s,DDR3-978时则为15.6GB/s,只有DDR3-800时是12.8GB/s,所以从性能的角度上来并不划算。另外,如果是走QPI链路,那么桥接芯片本身也要有SMI内存控制器,这显然也对成本不利,而且,从标准设计的4插槽R910服务器(每插槽配满16个DIMM)并不需要FlexMem Bridge一点来看,它本身也不具备内存寻址的能力,否则也同样适用于双插槽时的R910。所以QPI链路应该只用于设备的识别与判断。
然而,可能很多人会问,Dell这样的设计何苦呢?为什么不老老实实的做成每CPU双控制器全开的设计呢?笔者认为Dell的用意在于给用户一个比较大的灵活搭配空间。因为R810是2U机架服务器,而M910是刀片,做成4插槽64DIMM基本没可能,而每个通道都要配DIMM的话,每个SMB只能配2个DIMM(标配应该是4个),性价比太差,但若利用FlexMem Bridge芯片,则可以较好的解决双插槽的DIMM满配问题,同时又给用户留有可扩展至4插槽的能力。但是,我们可以肯定的是由于CPU只有一个SMI控制器工作,所以在4插槽的配置下,R810和M910的性能肯定与R910有较大的差距,不过这也换来了较高的性价比与更灵活的配置,就看用户怎么选择了。我想这也是为什么Dell并没有专门为7500/6500而优化的双插槽服务器的原因,它们与R910一起已经能起到良好的互补作用了。
FlexMem Bridge并不是随意安装的,双插槽时只能使用CPU1与CPU2插槽安装处理器,CPU3与CPU4插槽安装FlexMem Bridge,不能颠倒
总之,FlexMem Bridge可算是双插槽R810/M910的必备选择,这也是Dell强烈推荐的,否则所安装的处理器只能使用到标准内存带宽的一半,对性能的影响可想而知。