数据中心自动化控制是重点运营维护
近年来我国著名服务器厂商曙光在超级计算机领域发展迅猛,今年推出的星云超算系统获得了全球TOP500第二名的好成绩。在数据中心和高性能服务器等高端领域,曙光依然保持着其特有的优势。
现在各大服务器厂商都在围绕着数据中心节能与散热等相关问题进行研究,接下来就让我们来了解下曙光对这些问题的看法吧。此次参与讨论的专家为曙光服务器产品经理李麟。
数据中心节能化需软硬兼施
随着数据中心功率密度和能耗的增加,以及能源价格的提升,绿色数据中心(节能化数据中心)一定会成为主流,这也是当前用户关注的主要热点之一。曙光在这方面做了很多的工作,在服务器设计、集群服务器管理、机房统一管理等方面进行了大量的研究并将成果应用在相关的产品上,比如四路服务器、GridView和PowerConf管理软件、C3000冷却系统等。
目前数据中心散热方式还是以液冷为主
目前来看散热技术主要有两个比较重要的技术,一是水冷,可以是纯水冷(液冷)也可以与风冷相结合,水冷的好处主要是两点,第一,水的热容量比较大,可以承受更高的发热密度,例如刀片式服务器;第二,水是液体,在流动控制上要比空气容易的多,制冷的效率更高。另外一个方面就是精确制冷,能够实时的获得机房内部的温度分布情况,进行针对性的冷却,减少不必要的损耗。
基于芯片级的节能散热技术效果一般
目前的芯片一般都提供功耗管理功能,例如Intel的SpeedStep和AMD的PowerNow,但是实际使用中会遇到很多问题,例如Intel的Nehalem之前的CPU对SpeedStep功能支持的并不是很好,另外,单靠芯片本身不能确定有效的电源策略,因为在硬件层面是无法了解用户需求的,比如Email服务器和订票系统的在线支持服务器,从硬件层面看,两者的应用可能没差别,但实际上这个差别是很大的,所以就需要从应用的层面进行电源管理,这也是曙光开发GridView和PowerConf的原因之一。
数据中心在高纬度部署,有利有弊
目前有一些数据中心部署在高纬度区域,例如:瑞典、加拿大等国家,由于年平均温度较低,采用风冷散热即可。在这些高纬度地区,采用这种方式肯定是很好的。不过这对环境有很高的要求,据我所知,至少在德国,夏季温度也能达到30摄氏度以上,如果用户配置两套系统,分别采用自然冷却和空调冷却,成本上是否能够承受不好说,而且肯定在设计和建造数据中心的时候要做更多的工作,需要慎重考虑。
模块化数据中心只适合较特殊的应用领域
模块化实际是标准化,标准化对供应商来讲能够降低生产的难度和成本。对于大型数据中心而言,个人觉得还是需要量身定做,对于一些成本非常敏感的客户,模块化数据中心会比较适合。
云计算的三个特点:易用、安全、高效
目前,各厂家都对云计算提出了各种设想,也给出了一些解决方案和产品,我们觉得云计算的特点是三个,易用、安全、高效。原有的衡量IT设备性能指标,比如,性能、计算密度和功耗等都包含在这三个特点之内。易用,强调的是可交付性,用户一旦产生需求,能否快速的调度软硬件资源,形成产品并交付给用户;安全,是指用户的个人资料、行为、数据等不被攻击和泄露;高效,不仅是指资源的利用率要高,还要考虑能源的利用率,不仅PUE要高,有效功率的占比同样要高。
围绕这三个特点,曙光自主开发了各种产品,通过CloudView解决资源管理与快速交付,通过NetFirm智能网卡和SysCacheIO加速卡提升资源的利用率,通过TJ加密卡和Nikey提供安全域保证用户不被攻击,通过PowerConf提升用户能源利用率。这些有很强针对性的解决方案已经在成都、无锡等云计算中心实现了成功的应用。
数据中心自动化控制是重点
目前,曙光还是比较关注服务器等IT设备的功耗管理,因为根据所谓的瀑布模型,设备能耗每节省1度,数据中心的总能耗就能节省2到3度,另外,对设备的能耗的监控与有效管理,能够为UPS和空调提供很多参数,使得它们也获得更高的效率,减少损耗。设备的功耗是和负载相关的,负载往往无法预测,导致无法判断功耗的变化趋势,要解决这个问题必须要用自动化控制方面的一些方法,这也是我们当前研究的重点。