IBM系统与科技部副总裁,存储产品线总经理 Douglas M. Balog、IBM全球存储市场销售副总裁 Sebastian Krause、IBM全球存储市场与策略副总裁 Dan Galvan、IBM大中华区副总裁、系统与科技部总经理唐华先生于近日访华。并举行媒体采访探讨IBM存储2011年在全球范围内的成就,展望2012 年市场发展状况及策略。
由于紧接着还有一场分析师的采访,因此媒体的时间只有1个小时,各位领导的发言又占去了一多半,包括笔者在内的好几位记者都没来得及提问。不过在有限的问题中,还是涉及到了产品技术方面的话题,而我们觉得,这次采访中的一部分内容似乎在去年9月对IBM STG(系统与科技事业部)磁盘存储产品CTO Vincent Hsu(许育诚)先生的电话采访中“预演”过。
还是以事实来证明吧。
IBM结合应用的服务器SSD缓存方案
媒体提问:闪存进入服务器,过去一两年Fusion-io这个公司成长非常快,它使得传统的存储发生了变化。我们都知道数据库这种专业的应用,过去提高它的IOPS可能需要在传统的存储器系统中用成百上千个磁盘来提供IOPS,现在可以发现基于PCIe的SSD接入到服务器中,可以提高上数据库的专业应用响应速度,从而使得现在用户越来越喜欢用这种方式,传统存储系统的地位感觉在未来不是很重要了。特别是EMC,陆续也会发布闪电计划。作为拥有强大服务器产品线的IBM公司,如何看待闪存进入服务器。
Douglas M.Balog:首先一点是要明确的。过去两年中我们已经把闪存技术很好地应用到我们的产品中,可以看到Fusion-io的技术在x系列服务器和p系列服务器里面都使用了。可以现在存储里面已经用了固态硬盘,所以可以看到对于闪存市场来说并不陌生,它代表的不是未来,是我们已经有的产品。闪存技术对于服务器和存储市场来说是非常重要的。我们认为对于闪存技术来说,其中非常重要的一个方面就是要有智能软件的辅佐,客户需要这些闪存技术,但是他们自己没有那么多的时间来把数据进行迁移,需要我们的软件告诉他们作出决策,什么时候把什么数据迁移过去。
上周我们推出了XIV Gen3.1(第三代升级版)产品,可以通过闪存缓存进行决策,通过我们的XIV软件进行决策,确定哪些可以移到闪存当中去,已经应用到Storwize V7000的产品,正是它里面的分析能力可以判断哪些应用需要移动到闪存里面,哪些应用需要移动到大容量的硬盘里,所以可以看到我认为是一些智能软件决定了未来闪存技术的存在,怎么样进一步的更好地迁移到存储环境当中。
下面是半年前的采访:
笔者:目前以Fusion-io为代表的PCIe SSD厂商,纷纷将精力投入在配合后端磁盘存储的Cache软件方案上,类似的还有STEC和Marvell等。使用服务器上的SSD作为大容量磁盘阵列的缓存,能够提高性能、改善延迟,降低对外部共享存储系统(SAN)的IOPS性能要求,从而提高性价比。EMC宣布的“Project Lightning”(闪电计划)、NetApp Mercury也属于类似的形式,IBM怎样看来这些技术对未来存储市场的影响?有什么相关产品计划吗?
Vincent Hsu:这个应该按照2方面来讲。第一、作为缓存的SSD如果需要高端存储的技术,比如说远程镜像、FlashCopy快照的这种能力,目前服务器上的DAS还没有这样的技术。
笔者:如果只是用于读缓存,也就是说数据写入策略为write through的话,应该不影响复制和镜像吧?
Vincent Hsu:你说的没有错。IBM现在已经有这样的产品了,叫做ISAS(IBM Smart Analytics System,IBM智能分析系统),它不属于外部存储产品,是软件部门的一个解决方案。也是SSD在服务器上做缓存,有只读(Read-only)和临时数据(temp data,包括写缓存)2种方式,后端是共享存储。有点像EMC的Project Lightning,但我们已经推出正式的产品了。
IBM Smart Analytics System 5600的solid-state storage选项整合了Fusion-io ioDrive Duo,提供在PCI Express扩展卡上的固态存储。
笔者:我看到EMC的Project Lightning宣称具备分布式缓存的技术,也就是多台服务器后端可以同时连接一台共享存储。IBM的情况如何?
Vincent Hsu:(ISAS)当然是多个节点的(SSD缓存)。目前还只有Read-only,但下一步我们正在研发DAS的clustering(集群),把它们的数据存储(捆绑)在一起,这样写入数据(temp data)也是可以的。
笔者:IBM这些技术暂时还没有和外部存储来做结合?
Vincent Hsu:目前正在做这方面的事情。因为IBM现在有Easy Tier(自动分层存储技术)将冷数据和热数据分开放在不同层级存储里的功能,(服务器上的SSD缓存)对我们来说只是另外一种层级的存储而已。
GPFS整合Hadoop,IBM的大数据分析野心
媒体提问:刚才说到了IBM的存储是和数据分析结合在一起的。你说的Netezza这个产品,是帮助存储业务大幅度的增长,但是Netezza这个产品是软件产品。从硬件角度来看你们的大数据战略有哪些呢?
Douglas M.Balog:大数据是IBM非常全面的战略是面向整个市场的战略,除了Netezza软件,还有系统分析解决方案,它包括了很多面对市场的不同需求,像入门级的需求都是包括的,还有一些更多的软件产品Cognos等等也是我们的存储软件,都是为了满足客户的需求,可以看到我们这个大数据解决方案其实是我们的一些设备加上客户解决方案一起来满足客户需求的。
媒体提问:大数据包括很多方面,其他的竞争对手都在做,EMC有一个Greenplum,甲骨文有自己大数据的解决方案,他们都有自己的分析业务,比较之下IBM的优势在哪里?
Douglas M.Balog:IBM收购了上百个专门做分析的软件公司,我们既能够提供基础的架构这一层面的业务分析的能力,也能提供更多的行业的业务分析能力,我们的产品组合和业务分析能力,以及我们收购的上百家公司的能力是竞争对手不能对比的。
媒体提问:Hadoop是大数据方面较有影响力的开源技术,各厂商也在Hadoop方面各自提供自己的支持,请问IBM将如何支持Hadoop?
Douglas M.Balog:IBM具有很强的分析组合产品,比如说我们有一个中间件产品Big insight,可以与Hadoop一起使用,在Hadoop的基础上使用InforSpere BigInsights产品,就可以把Hadoop的文档系统和IBM的基础架构很好的结合,就可以生成GPFS。这样IBM就把它的硬件和文档系统以及软件以及Hadoop很好的结合在一起。
下面是半年前的采访:
笔者:目前谈到云存储和大数据,Hadoop(包括HDFS文件系统)是一个关注的焦点。开源是Hadoop的一大优势,比如EMC收购的Greenplum就在与Hadoop 结合,NetApp也在研究相关方案。IBM对Hadoop持何种态度?Netezza可能会和Hadoop产生某种联系吗?
Vincent Hsu:Hadoop是一个大的趋势,非常适合做大数据分析的。IBM有一个很有亮点的技术叫做GPFS(通用并行文件系统),我们正在做GPFS和Hadoop的整合,将来你会看到IBM有针对Hadoop优化环境的(存储/设备)来运行相应的工作负载。
去年的SNW2011大会上,在SNIA(全球网络存储工业协会)的一个演讲中,我们看到IBM GPFS可以替代HDFS作为Hadoop架构的底层文件系统/数据存储。而在上面的应用开发层,商业方案/接口(Commercial Project / Interface,相对于Hadoop开源方案而言)中第一个列出的就是IBM Bigsheets(大数据表)。
GPFS和SONAS在有些观念上是不一样的,SONAS虽然也是Scale-out,但它所有的存储还是以共享式的存储为主;而 Hadoop(也包括HDFS)本身是分开的。我们现在让GPFS也能处理这些分散的、分布式的数据存储,与SONAS使用同样的技术,但支持的工作负载和架构是完全不一样的。
点评:GPFS与Hadoop的结合是一种分布式文件系统的形式,专门针对大数据分析的应用;而作为集群NAS产品的IBM SONAS则具备更多的适应性,主要面向高性能计算、海量媒体(音/视频)数据的存储。
Vincent Hsu:IBM在过去这5年收购了一些做分析工作负载的软件(包括Netezza?笔者注),现在我们正在做分析软件和Hadoop环境的结合。
DS8000:未来基于Power的Scale-out?
媒体提问:英特尔的E5处理器平台很快会发布,而且在这个E5处理器平台中包括了很多存储特性,是不是从英特尔的这种观点来说,认为存储从硬件上会越来越趋近,存储和服务器在性能上越来越像,主要差异体现在软件,不知道IBM如何看待这种趋势,在研发中有没有相应的调整?
Laura Guio:我不能对其他公司未来要公布的产品进行评价。如果你仔细看一下我们的存储产品组合的话,现在存储行业确实是以软件为导向的行业,现在有很多行业标准使用的硬盘,比如说硬盘、闪存,不管是英特尔的处理器还是POWER处理器等其他的计算的模板,可以看到这些都是行业标准的。现在对于存储系统来说有一个革命性的变化,就是把行业内应用的这些软件都拿来,同时匹配上差异化的软件,同时体现差异化的体系。英特尔会给全世界带来一种想法,让大家觉得一切都是在英特尔的界面基础上运行。对于IBM,我们自己也有我们自己的POWER芯片,现在POWER5、POWER6都应用在DS8000上了,POWER7很快会应用在DS8000上了,对于我们来说,我们其实是把行业中这些最优秀的组件都拿来用在我们的产品上,不管是Power还是英特尔,所以我们比英特尔有着更宽泛的视角。
下面是半年前的采访:
笔者:我们看到目前多核x86 CPU性能越来越强、4插槽MP系统的内存已经可以支持到1~2TB。那么,IBM DS8000系列将来还有必要继续使用自己的Power处理器吗?
Vincent Hsu:存储器不光是一个性能的问题,特别是高端存储最重要的关键就是数据完整性。所以事实上我们有很多和Power整合的技术,我想将来(IBM)高端产品还是会用Power。具体到x86的性能现在也比较强,但是对数据的可靠性和一致性来讲,Power在这方面还是有比较多的优点。
将来你会看到不一样的地方,DS8000系列中会有Scale-out和Scale-up的设计。现在DS8800和DS8300就有很大的不同,DS8800的每一个矩阵节点(I/O扩展柜)Adapter和Power之间都是PCIe点对点的连接。
IBM DS8000(DS8700/8800)系列架构图
点评:DS8700、DS8800使用的CPU分别为4.7GHz的P6 570和5.0GHz的P6+ 570,前者的后端驱动器连接为2Gb/s FC-AL(光纤通道仲裁环路),而后者通过交换式的8Gb/s FC-AL连接到支持2.5英寸6Gb/s SAS驱动器的扩展柜。
除了这些,IBM DS8700和8800在系统I/O架构上的设计基本相同。两台Power 6服务器中各有两个CPU插槽(支持单核或双核处理器),它们通过P5ioc2芯片转接出的PCIe Cable分别连接到8个I/O扩展柜。而两台P6服务器之间的通信则由专用的RIO-G(remote I/O)环路来实现,一种高性能、带有自我恢复功能的内部连接技术。