数据存储产业服务平台

Mellanox将推出120Gb/秒InfiniBand

如果40Gb/秒InfiniBand不能满足你的话,那么你肯定很乐于听到InfiniBand交换机制造商Mellanox Technologies将在它的MTS和IS交换机系列中推出120Gb/秒端口。

Mellanox曾在今年6月宣布过40Gb/秒的IS5000交换机。InfiniScale IV芯片就是为IS5000而设计的。届时,InfiniScale IV也将支持120Gb/秒端口。在俄勒冈州波特兰的SuperComputing 09大会上,Mellanox表示该公司将在2010年第一季度推出MTS3600固定端口交换机。MTS3600将使用CXP连接–这种连接已经被一些厂商用在40Gb/秒InfiniBand上。MTS3600的CXP连接将可以把12条10Gb/秒InfiniBand传输通道联合到一个端口上。

MTS3600是一个1U设备,可以支持36个40Gb/秒端口,而这种设备的另一个型号使用CXP连接,可以支持12个120Gb/秒的端口。IS5000系列模块交换机是今年6月面世的。该系列交换机也可以将端口数减少到三分之一,然后让每个端口的带宽增加到原来的三倍。

Mellanox在展会上展示了新的120Gb/秒交换机。这个高速InfiniBand交换机是SC展会网络提供商SCInet的400Gb/秒网络的骨干,价值2000万美元–如果你想买的话。(SC大会用不着买它的网络,因为厂商都很愿意提供高速骨干的设备和专家)

最终,120Gb/秒产品线将包含12、36和72端口的固定端口交换机,以及120Gb/秒和40Gb/秒的复合交换机–这种交换机有6个高速端口和18个相对较慢的端口。

根据Mellanox营销副总裁John Monson的说法,120Gb/秒系列交换机上每比特价格和40Gb/秒交换机差不多,但是端口成本会增加到三倍。HPC(高性能计算)单位会迁移到120Gb/秒交换机的理由很简单:将InfiniBand通道联合在一起,用户可以大幅减少InfiniBand传输开销,并提高集群的性能。通过这些交换机,用户将有更多可以在3D系统上分配的带宽。

由于InfiniScale IV芯片已经支持更高的带宽,因此固件只需要一个"金螺丝刀"补丁就可以升级到120Gb/秒,不过由于CXP端口和它们的光纤线缆和原来的不一样,因此你还是要买新的设备。

Mellanox还在SC09大会上表示该公司已经在发售的ConnectX-2主机通道适配器有了另一个升级。在前代的ConnectX IB卡上,一些和InfiniBand协议相关的进程可以从服务器节点的CPU卸载到IB卡上。(就像现在以太网卡上的TCP/IP卸载功能)

Monson表示,在ConnectX-2卡上,Mellanox又前进了一步。HCA上的电子元件可以承担一部分信息通过接口(MPI)集体操作–广播/搜集数据或在集群上同步节点的操作。

Mellanox已经完成了标杆测试。结果显示,由于这种MPI集体通信,集群丧失了20-30%的可扩展性,这意味着本来可以做其他事情的CPU不得不处理这种MPI工作。因此,通过改变现有卡的固件而获得的卸载功能可以改善集群功能并让它可以做更多的事情。

有趣的是,ConnectX-2 IB卡同时还内置有浮点联合处理器。只要有Mellanox IB卡,该处理器就可以承担一部分原本是MPI堆栈发送给集群服务器节点的计算任务。

Mellanox与美国能源部支持的两家国家实验室合作(橡树岭实验室和洛斯阿拉莫斯实验室)以调整MPI堆栈来实现内置的浮点装置。至于这个功能在新的交换机面世的时候是否会激活,Monson则不置可否。

未经允许不得转载:存储在线-存储专业媒体 » Mellanox将推出120Gb/秒InfiniBand