高性能串行总线架构

倍受关注的高清制作、分发和播出正在对视频服务器市场提出其他的变革挑战。几年前,重点集中在HD编码方式及如何桥接现有系统内的组件来支持转换。由于推断录像带不再符合HD的要求,因此当务之急是解决磁盘上的文件需要一套能满足存储容量海量增长和高带宽需求的解决方案的问题。无论服务器是非线性编辑平台或担当重要任务的播出系统—现在存储和系统吞吐量必须提升若干等级,以实现从磁盘向解码器和处理器迁移素材。
一.系统扩容
服务器和磁盘阵列厂商都稳步转向可提供适当的混合吞吐能力和储存能力的架构,以满足用户需求。磁盘驱动器已获得这些能力,并且其数据率支持新努力,但它们本身力不从心。该系统必须扩容以支持背板系统和阵列机架内的互联方案,以及存储器和服务器之间那些网络接口。必须考虑提供足够的能力允许多组超过200Mb/s的数据在子系统之间顺畅地传输。
因此,视频和媒体服务器平台制造商再次着眼于把公认的以网络为中心的架构作为其面临问题的解决方案。我们已经看到了串行驱动器技术的发展,因此,现在采用另一种总线技术,(仍然是串行模式)作为解决方案是明智的。不算全新的InfiniBand技术(出现于1999年年底,2001年上市)正在满足大数据存储器的海量存储需求方面得宠,特别是对于交易数据和媒体。
InfiniBand既是一种架构又是一项存储I/O设备和处理器之间数据流的规范。它的应用不仅仅限于存储和服务器,还可以作为内部总线,最终取代用于PC和服务器等的现有的外围组件互连共享总线方式。存储系统的数据交换(如计算机或服务器内部总线)面临着类似的问题,即内部元件之间的数据流量已增至现有总线系统成为瓶颈的程度。内部总线系统通常在被称为“底板总线”的数据路径并行发送数据,通常每次32b,最近的系统则是64b。数据流必须不断加以调节和计时,以便所有比特同时精确到达。把多组数据呼叫置于同一条总线产生等待周期、重新计时和大规模流量问题。
进入InfiniBand?
数据路径变成更高带宽和数据流的比特串行总线。这种方案不同于20世纪80年代的D1和D2数字视频所带来的那些变革。为了成功传输数字视频,必须从8b并行结构和互连(在25针sub-D型连接器上使用12.5对的电缆)转向同轴电缆传输串行数字视频。这项技术最终允许用串行而不是并行方法传输比特串行数据流,实现超过3Gb/s的码率。这些原则在某种程度上在InfiniBand上实现数据交换,但这里描述类似的那部分。
InfiniBand的运作很像基于包的网络架构,其串行总线在(或使用)一个复用信号上同时承载多条数据通道。此外,InfiniBand可以被描述为一种I/O网络,此网络视总线本身为一种交换,理由是它包含控制信息,可被用于根据其目的地址决定信息的路由。这种做法允许网络上的节点采用星形形式,这种形式强调对主机和存储设备等更广的联系范围。
对于存储系统,这种方案允许系统执行多次读和/或写,不必等待数据适应下来或运行速度慢下来,就像在并行总线结构上一样。把总线看作必须穿过没有红绿灯的十字路口的一条八车道高速公路。每辆车(即数据包)尝试通过该十字路口,却受到阻碍,因为一辆或多辆车与另一辆试图越过十字路口的车有可能相碰撞。每辆车都必须放慢速度拥挤着从车辆之间的缝隙穿过。如果所有车辆一辆接一辆,以同样地间隔和规定的速度运行,每一辆车通过交叉口的机会大增,现在可以每小时55英里的速度安全通过交叉口。随着通过该系统的数据量的增加,串行传输数据的能力和过时的并行方式相比增加了许多倍。这正是串行技术正在各类电子产品中大行其道的原因。
二.InfiniBand更多的优点
InfiniBand的另一个优点是它采用经由IP v6的128b地址解析方案。这允许几乎无限量的设备扩充,并导致多套磁盘驱动器运行在单总线架构上。这样一来有更高的性能和更大的带宽,实现更快速地向外围系统传输。
InfiniBand支持多个存储区,存储设备(磁盘、阵列、固态存储器)和处理器(服务器、主机和媒体端口)都可以解析每个存储区地址。如上所描述的交叉口的例子,InfiniBand支持数据以数据包传输,形成所谓的“消息”通信。消息传输可能采用几种形式。可能是远程直接存储访问读或写操作、频道发送或接收消息、可逆的基于交易的操作,甚至是多播传输。这为许多全部采用相同串行结构的应用打开大门。
与主机应用类似,传输始于和结束于通道适配器。在该系统中,每个处理器(即服务器)采用一组主通道适配器,每个外围设备(即存储系统)有一个目标通道适配器,类似光纤通道中的概念。当通信开始,这些成对的适配器交换信息,建立消息路由,为数据流开辟通道,并确保安全和服务质量水平两者都得到满足。
新型功能强大的多核CPU、刀片架构、服务器虚拟化的出现进一步增加了对存储器以及降低功耗的需求。这些因素不断增加I/O解决方案的需求。InfiniBand提供与60Gb/s交换机对交换机的20Gb/s主连接,有1μs的端对端的精确延迟。InfiniBand更进一步方便冗余,具有完全冗余I/O结构、自动路径故障切换和链路层多重路径技术,支持最高水平可用性。
在媒体和存储域,目前一些大型近线和在线应用的大型存储系统专业制造商采用InfiniBand。该架构在驱动器阵列中用作其底板,而且还用于多组离散数据存储之间的互连方案。InfiniBand是使用数百个独立驱动器的数据存储系统的首选高性能架构,在高性能和海量存储方面都得到好评。