数据存储产业服务平台

大数据流量:数据中心发展的瓶颈

我们都知道,大数据通常与数据中心不断增长的结构和非结构化工作负载相关。而网络负责处理传输到服务器、存储阵列和云服务的数据流量。服务器之间的密集型I/O吞吐量常常发生在数据中心或者广域网之间。伴随着大数据的来临和应用的不断增长,新的问题将会出现。由于传统的IT设施在当初设计的时候,没有考虑到大数据的情形,瓶颈问题将变得更加普遍,尤其是在存储一端,问题更加明显。

这样一来,IT业务中就会出现一种新的分支:面向新一代数据中心的数据管理。下面,我们就给大家介绍大流量阻碍数据中心发展的几大缘由:

一、大流量是一种新型工作负载

大流量是指横跨广域网连接的数据中心内服务器间的通信流量,它不同于通常情况下的大数据工作负载——也就是用户对机器或者机器之间的通信流量。

二、传统IT不能胜任大流量要求

导致大流量出现的主要原因是IT过去几年所形成的优势:虚拟化的广泛部署和扩展系统;远程实时迁移;数据复制和备份;专门针对基于WAN分布式系统而编写的尖端应用,比如Hadoop, MapReduce, MongoDB和Cassandra。

三、大流量增长没有止境

大流量增长没有具体的指标可供参考,它的增长将永无止境。Forrester Research预测说,在未来几年,由机器运行产生的应用数据将达到50%的年增长。而且,存储巨头EMC官方发布过一份报告,认为在2009至2020年间,将实现44倍数据扩容,这意味着数据带来的流量增长将是一个巨大挑战。

未经允许不得转载:存储在线-存储专业媒体 » 大数据流量:数据中心发展的瓶颈