在今年5月的“单芯片16Gb FC+10GbE:加速融合网络过渡”一文中,笔者分别谈到了博科Brocade 1860 Fabric Adapter——兼容16Gb/s FC和10GbE两种端口的HBA卡,以及Emulex XE201多光纤架构I/O控制器。随着时间的推移,16Gb/s光纤通道SAN存储网络的脚步在慢慢向我们走近。
现在,我们看到QLogic和Emulex也公布了自有品牌(相对于OEM业务而言)的16Gb/s FC HBA卡。在QLogic的网站(见上图),2600系列适配器的正式出货时间定在明年早期;而Emulex则宣称其LightPulse LPe16000系列16G FC适配器将于今年第4季度普遍上市。
前不久,Emulex企业营销副总裁Shaun Walsh先生来到北京与媒体和分析师进行了面对面的交流,探讨云数据中心的发展趋势,并分享了Emulex最新产品与战略动态。
Emulex企业营销副总裁Shaun Walsh先生
Shaun Walsh于2008年加入Emulex,担任企业营销副总裁。他负责公司的品牌建设,对外产品解决方案营销,OEM和渠道营销以及市场传播。Shaun Walsh曾先后在昆腾、Overland Storage、JNI、STEC、Dot Hill和QLogic等多家企业担任主管及高级经理的职位,拥有佩伯代因大学管理学理工科学士学位。
关于16Gb/s光纤通道相关产品技术,我曾在之前文章中写过的就不做重复。本文则希望更加全面地体现出16Gb FC的价值,在数字翻番的背后,它给当今的数据中心存储网络将带来什么样的影响?
虚拟机密度要求更高的I/O吞吐量(调查数据来自ESG,2011年)
上图中我们看出,每台物理x86服务器上的虚拟机数量将由目前的5~10个所占比例最大,增加到24个月之后的11~25和大于25个为主。其背后的主导因素正是服务器CPU处理能力(特别是核心/线程数量)和内存容量的增加。
举例来说:如果今天新采购服务器,最常见的配置应该是双路6核心的Intel Xeon 5600系列,两个CPU一共12核心/24线程,而等到明年初发布至强E5-2400/2600之后,这个数字可能就会增加到16核心/32线程。“服 务器虚拟化增加了数据中心内的网络流量(30%)”这句话绝对不是空穴来风,正是这个原因,高速的万兆以太网、16Gb/s光纤通道乃至未来的40GbE 才显出它们的重要性。
快速的SSD存储技术,服务器主机上不断提升的QPI互连、内存带宽,对更快、更好的网络HBA提出了要求。巧合的是,戴尔存储副总裁和总经理Darren Thomas在Dell World上的讲话中提到,“目前的PCIe(即将应用的3.0)总线和光纤通道一样快,大约8Gb/s,英特尔下一代处理器内存总线将快100倍,这是一次很大的提高,这意味着服务器将等待网络存储。”
实际情况是,40Gb/s(现已推出56Gb/s FDR)InfiniBand已近等了PCIe 3.0“很多年”,而高速的PCI Express I/O连接对于未来的32Gb/s光纤通道(如果推出的话)和40Gb/s以太网也是必不可少的。
16Gb/s FC普及路线、5倍于8G HBA的IOPS
Emulex LightPulse LPe16002双端口16Gb/s FC HBA卡。由于使用的芯片都是同一颗XE201多光纤架构I/O控制器,单端口的LPe16000只是去掉了一个SFP+光纤连接器而已。
ZDNet:我们知道Brocade 1860 Fabric Adapter有 单/双端口、带16Gb/s FC 和 10GbE收发器一共6个型号,并可以支持混合端口的配置。而Emulex LightPulse LPe16000/LPe16002仅提供16Gb/s FC而没有以太网支持,这样Multi-Fabric的优势在适配器上如何体现?
Shaun Walsh对此表示:按照OEM客户的要求,我们将在明年上半年推出使用单一驱动,支持16Gb FC + 10GbE组合端口的配置。
点评:与Emulex类似的是,QLogic 2600系列中的QLE2660和QLE2662也是只提供单/双端口16Gb/s光纤通道的配置,而另有一个8300系列使用相同的芯片做成10GbE CNA(融合网络适配器)。分享FC HBA市场绝大多数份额的2家厂商都这样做,表明未来半年(大约2011年11月~2012年6月)还基本处于OEM——服务器提供商验证的阶段,而后还 要经过IT经理的试用和评估。预计到2013年将会正式进入16Gb/s FC开始普及的时代。
在上图中,Emulex对于LPe16000的架构提出了一些新概念,比如vPath。其实Emulex之前就宣传过SR-IOV(Single Root-I/O虚拟化),即在单个物理NIC/HBA卡上虚拟出最多256了逻辑适配器供不同的虚拟机使用。虚拟路径交换可以实现物理机内部通信,虚拟 机之间的V to V数据交换能够在网卡驱动控制的PCIe内存地址中高效完成;多客户端I/O隔离,并可单独设定每个虚拟NIC/HBA的QoS(服务质量)。
在Emulex公司技术营销总监Mark Jones撰写的博文《16GFC-不仅仅是速度问题》中,通过测试截图列举了LPe16002的单端口最大IOPS就超过了100万,而Brocade 1860公布的则是每端口超过50万(每个双端口适配器超过100万),QLogic 2600的资料中也注明了可以达到100万IOPS的性能,不过没有说是在几个端口下实现的。
相比之下,上一代的8Gb/s FC HBA则只能达到大约20-25万IOPS的水平。毕竟几年前推出时芯片的处理能力有限,还有一个原因,就是现在和过去的主流高端存储系统性能瓶颈通常不出现在单个光纤通道接口上,但进入SSD的时代恐怕就不同了。
除了IOPS,闪存介质固态存储的另一大优势就是微秒级别的响应时间(延迟),而传统硬盘至少要几个毫秒。上图为单个SSD LUN的平均读I/O响应时间,使用LPe16002比LPe12002缩短了一半。
ZDNet:Emulex XE201芯片支持PCIe 3.0,但LPe16000/LPe16002目前的资料是PCIe 2.0,是否因为Intel相关的Xeon E5服务器平台(代号Romley)还未正式发布?
Shaun Walsh:LPe16000系列今天还做不到PCIe 3.0,需要换一个组件(小芯片之类的),等到支持该标准的服务器发布Emulex就会有对应的产品。
展望
根据我们得到的消息,惠普3Par和戴尔Compellent已经准备在存储系统中加入16Gb/s FC主机接口,而IBM、HDS(日立数据系统)和NetApp等厂商应该也有这方面的计划了吧?