融合存储服务器:应对不同类型大数据挑战

DOIT*

文章来源:中国 IT 应用门户

    大数据正和云计算一起,推动着整个 IT 产业的发展。所谓大数据,IDC 对其的定义为:“为了更经济地从高频率获取的、大容量的、不同结构和类型的数据中获取价值而设计的新一代的架构和技术。”大数据具有高容量、高价值、多样化和持续性的特点,尤其是非结构化的特性,使得大数据的保存、管理、挖掘等成为了当前企业面临的挑战。而正因为如此,大数据催生了一个迅猛发展的市场。有关数据显示, 2010 年全球大数据以及相关硬件、软件和服务市场仅为 30 亿美元,而到 2015 年该市场的规模将超过 170 亿美元,平均年增长速度超过 50%。

    而智能手机、视频、社交网络、微博等媒介源源不断地产生的海量的非结构性数据,才是企业对大数据的最真实的感受。根据IDC的报告,未来十年全球大数据将增加 50 倍。仅在 2011 年,全球就产生了1.8ZB(也即 1.8万亿GB)的大数据。毫无疑问,大数据将挑战企业的存储架构及数据中心基础设施等,也会引发云计算、数据仓库、数据挖掘、商业智能等应用的连锁反应。

大数据造就 Hadoop

 

    大数据也给企业带来了新的机遇。例如,通过评估某位客户在网站上的行为,企业可以更好地了解他们需要什么支持或寻找什么产品,或者弄清当前天气和其他条件对于送货路线和时间安排的影响。此外,大数据分析更加注重实时性,特别是涉及到与网上交易或者金融类相关的应用。比如,网络成衣销售行业的在线广告推广服务需要实时的对客户的浏览记录进行分析,并准确地进行广告投放。因而,未来将会有更多的 TB 级数据集用于商务智能和商务分析,这对计算和存储甚至是分析平台带来了新的市场机会。

    大数据的迅猛增加,使得传统的数据分析软件面对当今的海量数据显得力不从心。新的海量数据分析引擎已经出现,如 Apache 的 Hadoop、LexisNexis 的 HPCC 系统和 1010data 的以云计算为基础的分析服务。特别是开源的 Hadoop,它已经在过去 5 年之中证明了自己是市场中最成功的数据处理平台。Hadoop 将海量数据分解成较小的更易访问的批量数据,并分发到多台服务器来分析和处理,这种方式就像把一大块食物分解成小块更容易让人消化一样。

存储和服务器融合支持开源 Hadoop

 

    Hadoop 是一个能够对大量数据进行分布式处理的软件框架,它可在单一的 Linux 平台上使用,但是运行在由机架服务器组成的集群才能更大地发挥它的力量。

    由于大数据更加强调实时处理,Hadoop 集群中的节点服务器除了对计算性能有更高的要求外,对存储也是追求大容量,以便节点机直接对存储在服务器内部的数据进行访问和分析。而伴随着英特尔等相关厂商的推动,服务器和存储融合的趋势愈发明显,这也使得存储服务器成为了 Hadoop 集群首选的计算平台。

    我们不妨来看看英特尔是如何推动存储和服务器的融合的。

    首先,x86 架构为两者的融合提供基础。随着英特尔在处理器芯片的不懈开发,x86 架构不仅仅在服务器上获得巨大的成功,很多存储架构也日趋采用英特尔处理器;其次,固态硬盘让服务器存储融合更为智能。随着英特尔等固态硬盘厂商的大力推动下,固态硬盘的出现,使得服务器存储在计算方面更趋智能;第三,海量存储让服务器更为充实,TB 级大容量 SATA 盘的出现,使得服务器的容量得到极大的提升。

    此外,作为 SAS 技术的推动者之一,英特尔在其 Romley 平台上集成 SAS 交换功能,这实际上也是服务器与存储走向融合的一种体现,这种做法能够让系统厂商充分利用系统主板空间和 PCI-E 端口资源,降低系统开发复杂性和成本,并让用户在系统使用和系统维护工作上更加简单和容易。

“Hadoop+至强”意味着什么?

 

    以上种种,让人们看到了服务器和存储融合的趋势日渐明显,也使得企业在构建 Hadoop 集群时将高存储容量的 x86 机架服务器当作了不二之选。中国联通和百度就是这样来应对大数据挑战的。

    首先说说联通。伴随着智能手机的普及,广大用户利用手机上网和社交越来越频繁,这也带来了一个新的挑战:用户想清清楚楚了解自己的上网流量究竟用在了哪里?在这种状况下,联通从去年开始部署针对移动互联网用户的上网记录查询系统。

    而实际上,用户即使是简单地访问一个新浪的首页,上网记录查询系统也会产生 20 多条记录,这样每天产生的数据简直是天量。此前联通曾经试图用甲骨文数据库来解决该问题,但经过测试后发现关系型数据库处理到百亿条数据时就显得无能为力了,一次简单的查询可能几个小时都出不来结果。

    为此,联通尝试采用英特尔至强平台的服务器集群和英特尔 Hadoop 发行版组合的方式来解决该问题,并收到了良好的效果。目前,联通 Hadoop 系统集中部署在北京,各省的数据每5分钟生成一个文件往北京传输并被保存和有效管理。采用 Hadoop 技术后,用户输入中国联通任何一个城市的号码,其上网记录只需一两秒就可以检索出来。

    中国联通研究院副院长黄文良介绍,联通 Hadoop 集群系统的“主力军”是 178 台基于英特尔至强 5600 处理器的两路刀片服务器,每台服务器配备了高达 14TB 存储容量。此外,系统还配有 NameNode 节点服务器、入库服务节点服务器、集群监控节点等若干台,也都是基于英特尔架构处理器平台的 x86 服务器。从联通 Hadoop 解决方案来看,融合存储服务器成为了大数据处理的“中流砥柱”。

    再来看看百度。百度是国内较早开始探索 Hadoop 大数据解决之道的互联网企业。百度从 2007 年开始使用 Hadoop 做离线处理业务,目前有 80% 的Hadoop 集群用作日志处理。同其它互联网企业面临的相同麻烦是,Hadoop在百度经过 5 到 6 年发展之后,也已经走到了一个岔路口。现在百度每天的作业数超过了千万,每天的数据处理量在 6TB 左右。

    2011 年,百度 Hadoop 集群的服务器规模达到了 1 万多台,2012 年计划达到 2 万台。目前百度的服务器大部分是价格在 2 到 3 万元的基于英特尔架构的定制化服务器,标配 12 个 1TB 硬盘,32GB 内存。百度高级架构师马如悦介绍,百度的 Hadoop 集群规模的目标是 10 万节点,而且需要充分考虑跨机房部署的问题。为此,百度正在对 Hadoop 的扩展上限进行研发,看一旦到了上限是否需要拆分。百度还计划将 Hadoop 升级到 2.0 版本,主要是解决Hadoop 主节点的可扩展性问题。

    以上两则例子充分说明,开源的 Hadoop 已经成为应对大数据挑战的有效利器,而 Hadoop 集群的基础则是大存储容量的英特尔架构服务器,它们的高性能和大容量,以及直接在机器内部快速传输数据的特性,成为了大数据的应对之道。

产品和性能信息

open

. * 媒体文章均为第三方观点,仅供参考,不代表英特尔官方观点。