当前位置:首页 > 存储与灾备 > 正文

存储网络的发展现状

2014-09-25 TechTarget中国 编辑:佚名

  存储网络正努力朝着“跟上虚拟化服务器环境以及高速闪存存储步伐”的方向发展。当网络成为瓶颈的时候,升级就在所难免了。

  在有关虚拟化或者集群数据库上线话题的讨论中,存储网络这个名词通常会被忽略。更大的优先级往往会被放在与项目相关的服务器以及存储身上,而不是在连接它们的网络上。传统意义上来看这样做无可厚非,因为一般认为带宽通常是足够的。然而随着高密度服务器虚拟化的发展以及基于闪存几乎零延时的存储的改进,网络成了现在的瓶颈,或者说至少IT规划人员需要考虑有关网络升级的话题。

  有关数据中心的三个层次

  · 用于处理应用的计算资源层
  · 用于存放计算数据的存储层
  · 用于连接计算资源层以及存储层的网络层

  虚拟化技术实现了单台服务器支撑几十个虚拟机,并且在闪存技术帮助下存储层的响应越来越迅速,这些变革对于数据中心的发展方向产生了戏剧化的影响。

  大多数数据中心环境中,网络层的发展也一直在不断进行,其驱动之一就来自于更高性能以及更多功能上的需求。这些升级通常会随着下一代存储网络组件(例如适配器和交换机)的成本逐渐降低而实现。一个更基本的事实是,新服务器的到来也需要通过升级网络来减小带宽上的压力。

  有关网络性能方面的差距

  计算资源层以及存储层性能的飞速提升让网络成了性能上的短板。计算资源层能够产生大量随机的存储I/O请求,闪存也能帮助存储对这些计算请求进行响应。而网络层不再有硬盘旋转产生的延迟为其打马虎眼,故而成了性能瓶颈。

  IT规划人员就突然遇到了升级整个存储网络的压力,不过尚有些可选的应对方案,比如第五代(16 Gbps)的光纤通道、基于以太网的光纤通道、10 Gbt以太网、40 Gbt以太网以及InfiniBand和服务器端的网络。

  让我们一起来比对一下不同网络连接类型构成的各种网络架构。

  IP网络(10 GbE或者更快的网络)

  基于IP以太网的存储网络为存储网络市场开辟了新的市场,因为人们意识到这将降低用户的成本并且也便于维护。大多数数据中心都已经在用户到服务器或者服务器之间使用基于IP的网络。

  因此这样做的目的是为了降低整体存储架构及其运维的成本,且维护人员无需特殊的技能要求。

  现今的大多数IP存储架构使用的是捆绑或者绑定的方式将一堆1 GbE的网络连通在一起以提升性能及冗余度。10 GbE网络的出现对于这种现象是好事,因为这样就不用将1 GbE的网络集合在一起了。然而10 GbE的网络就像1 GbE网络的发展一样,设计者们需要提前了解。问题之一就是基于IP的存储网络使用的IP架构里,大多数使用的还是STP技术,即单次激活的连接仅为一个。

  STP技术的问题在于,其设计之时交换机尚未广泛应用,还仅是以太网的天下。一般来说,STP技术可以确保网络中两点之间的可用链路仅为一条。这样设计的目的是为了避免环路问题。

  在现代网络环境中,总会有冗余线路,但由于STP技术,它们被屏蔽或者被关掉了。一旦主链路失效,网络会自动聚合到另一条链路上。在大型网络中,重新聚合的过程可能需要数秒来完成。结果是,不仅仅潜在的带宽浪费了,对整个网络也会带来响应滞后的影响。

  在1GbE网络环境中出现失效链路问题不是太大,因为带宽浪费现象不会导致严重后果,且每条链路本身也不是非常昂贵。而将网络迁移至10 GbE网络时,这就成了一个更显眼的问题,因为被浪费的带宽将可能达到先前的10倍或者更多。

  IP网络服务提供商们也在尝试创建架构式基于IP的网络,这种方式下不会有之前方式中产生的网络拥塞现象。然而由于每家服务提供商提供的实施是其独有的,因而供应商之间的互通性像拼凑的一样。需要补充的是,这类实施所耗费的硬件资源往往会远大于传统的以太网服务提供商。

  IP网络协议可以在SCSI协议和IP协议之间做到相互转化,甚至可以涉及TCP协议层。然而这些问题可以通过特定的网络接口适配卡实现更为有效的IP和SCSI协议之间的转换,但按照这样的做法就会增加硬件成本,同时也会增加现有无缝IP网络的复杂度。

  16Gbps 第五代光纤通道

  大多数存储专家们对FC存储网络都不会陌生。光纤通道网络给人的印象往往是价格昂贵并且更为复杂。然而光纤通道使用架构式网络存储拓扑,故而所有的链路都是活跃的。这就是说,第五代光纤通道里,16 Gpbs的链路不会有浪费或者使用不充分的现象。

  光纤通道同样也是一个无损网络,这就是说数据一定会到达目的地,不会出现像在IP网络里那样重传数据的需要。最后,协议之间也无需额外翻译和转换,因为FC协议可以透明地处理SCSI通讯包。

  光纤通道在存储网络领域中不算新生代,但第五代光纤通道架构中所描述的功能实际上也能优化现今流行的虚拟机里面I/O带宽的颗粒度。

  服务器端的网络

  服务器端的网络通常会借用软件定义存储来聚合不同服务器之间的本地存储以实现虚拟层的计算资源层。聚合的存储则由一个单一的资源池共享。这些类型的存储网络实际上颠覆了传统数据中心的概念,但也不能完全替代,因为他们本身也会依存于相同的物理设备上。

  服务器端的网络大多数程度上依赖于基于IP的网络协议,尽管有些场景也会用到无限带宽技术。这样会减轻一些之前描述过的问题,因为IP之间的通信功能是由物理主机里面的CPU资源实现的。此外,STP网络故障应该可减少到最低,因为服务器间的连接是私有的,需要的连接也极少。

  这些解决方案中某些方案会将聚合的存储池里的数据切片。这样做的目的在于提供了数据保护的同时,也将数据共享在集群式的环境中。但也同样导致了网络延时,因为这毕竟也是通过网络连接到了服务器。

  还有一些方案解决了这方面问题,实现方法是通过一台虚拟机分配所有的资源。所有都从本地服务器读取数据,故而不涉及延时。写操作会发往本地池以及聚合资源池,实现数据安全及共享。简要说来,这些系统为了实现性能上的提升也牺牲了一部分存储容量上的使用效率。

  高级网络:无限带宽技术,40 GbE以及第六代光纤通道技术

  现今有一些高级存储网络技术供使用者选择,例如无限带宽技术、40 GbE以及第六代光纤通道技术。后面描述的两类已经升级到了现今的IP及光纤通道标准,提供了更为强大的带宽支持。无限带宽技术是类似光纤通道的一项技术,但是带宽在40 Gbps。

  IT规划者需要认真考虑选择哪种架构,以确保对计算及存储层投资回报率的最大化。

  无限带宽技术常见的使用场景是集群中的存储节点间的相互连接,往往这些节点之间的连接对I/O都有较高的需求,例如高频交易等。此外,在闪存设备之间的服务器镜像也会用到相应技术。

  虽然无限带宽技术能够在更为广泛的存储网络配置中得到使用,尤其是服务器端的网络,但是将其广泛推广可说是非常困难。它仍将作为一个特殊网络场景使用的可选技术。

  纯粹的网络

  毋庸置疑的是,许多数据中心场景都分别遇到了逐渐升级到下一代存储网络架构的转折点,计算及存储层的投资回报率将会非常有限。如果没有纯粹的网络带宽,当虚拟化到达最大密度的时候,闪存存储也无法提供最大的性能。

  问题是:应该选择哪一种网络作为下一代的存储网络?大多数情况是要看有哪些方案可供选择。大多数企业还是更愿意选择现有的拓扑结构及协议模式,仅作少量的变更就可以平滑过渡到下一代网络架构上。然而作为IT规划者,更需要结合可供选择的架构,以确保对计算及存储层的投资可获得最大投资回报率。在能实现更大密度及更高性能的前提下,升级到一个全新的架构也不是没有可能的。

大家都爱看
查看更多热点新闻