《WIRED》独家直击:Google全球资料中心大揭秘– 作为全球最大“硬体制造商”的“网路公司”
2013-04-11 15:26 Google 硬体制造商 网络公司

创新节能的Google 资料中心

霍兹与他的团队设计造价六亿美元的设施时很有远见,他们认为,伺服器室可以不必维持在那么低的温度。摆放在里面的设备会释放出惊人的热量,传统上会用大型电脑室的空调系统(CRAC ,computer room air conditioner)冷却资料中心的温度。

但若循传统,把它们安装在高架地板下;调到极地那么冷的温度,会耗费庞大电力。事实上,全世界达1.5%的电力是消耗在各地的资料中心上。

Google意识到,位于设备前方的“冷通道”可维持在华氏80度(约摄氏26.7度)左右。至于热能就由伺服器后方的密封空间“热通道”排出,温度就算高达华氏120度也没有关系。热能经装水线圈吸热后,打出建筑物外头冷却,再循环回到室内。这是Google的诸多成就之一,它破除了过去使用CRAC的习惯。

Google还找到更省钱的方法冷却那些水。过去,许多资料中心都仰赖耗能的冷却器,但Google的资料中心会设置高塔,让热水沿着它往下流,一部份水会蒸发掉,当剩下的水抵达底部时,就几乎等于或低于室温。而且,比利时的机房,冷却时用的是回收的工业废水,在芬兰用的则是海水。

Google分析电流时发现另一个浪费的源头。为了防止伺服器电力中断而设的不断电系统,不但漏电还得加装特有的冷却系统。Google则设计出摆放设备的机架后,在每台伺服器旁腾出空间放备用电池,舍弃不断电系统,据表示,如此节省了约15%的电力损耗。

衡量资料中心标准效能的标准称为“耗能指标”(PUE, power usage effectiveness),完美数值是1.0,表示设施所获得的电能全充份运用。根据专家指出,资料中心的耗能指标若为2.0是正常的,但Google的耗能指标达1.2,是前无古人。

“我们的核心优势在于庞大的电脑网路,几乎大过于全球其他人了!”Google负责装设伺服器的吉姆?利斯(Jim Reese)指出,过去他们认为,别让竞争者知道,才能维持自己的最佳利益,因此没有把自己的努力目标公诸于世。

Google是全球最大硬体制造商之一

Google过去是环保的优良楷模,2007年,正式承诺做到碳中和。也就是说,它必须设法抵消企业活动中产生的每一莫耳碳,包括冷却系统与柴油发电机的使用在内。但对资料中心节能的事保密,却会有损于这样的理想,要是竞争者知道Google节能幅度,他们也会努力就能对环境带来正面的影响。

2009年,在一场“效能资料中心高峰会”活动中,Google发表最新的耗能指标数值,并暗示所采用的某些技术。这是整个产业的转捩点,现在如脸书、雅虎等公司也实现与它差不多的PUE值。

但激励Google这么做的因素其实是因为管理需求。

“我们当然喜欢节能,以Gmail为例,以传统方式设置Gmail用的资料中心与伺服器,会亏很多钱,如今成本已经低到可以免费提供服务无虞。”霍兹道。

Google的突破不只在节能而已。虽然,大家都认为它是网路公司,事实上,它已经成长为全球最大硬体制造商之一。因为,有许多设备都不假他人之手,自行建造。

1999年,霍兹买来两千片拆卸下来的“实验电路板”,略去不必要的元件,做出每台只需要价一千五百美元的伺服器,远低于当时行情价的五千美元。霍兹、佩吉与另一位工程师自行为这些伺服器设计用于测试负载量的电脑群组,“不过,也不算真的『设计』啦!”霍兹一面在空气中比了个引号。

如今,Google的伺服器又比那时进步了十多代,它十分清楚,控管严密的资料中心需要的是速度、处理能力以及良好的连结,无须购买不必要的额外零组件,进而省下一笔钱。同样原则也适用于网路设备,其中的一部份Google在几年前就开始打造。

不排除涉足晶片设计

到目前为止,还有一个领域是Google尚未涉入,那就是自行设计晶片。

Google平台副总裁巴特?沙诺(Bart Sano)暗示道:“我绝不会说这件事绝无可能,事实上,每年赖瑞都会问我这个问题。”

即便资料中心可以有新想像,但并不保证就能提供可靠的服务给用户。因此,Google也努力建立光纤的世界。

2000年代初,几家电信公司破产,Google趁机买下废弃的光纤网路,再透过购并、交换,以及实际铺设几千条光纤,Google已建立起势力庞大的光纤帝国。

建立软体系统,轻松倍增效能

但是,如果有YouTube这样的资产时,光做到这样,可是不够。每当几百万人从Google为数不多的资料中心里点阅影片时,速度会变慢、负载会变重。因此,Google在原本网路外增设了几个“前哨站点”,即迷你资料中心,安装自己的伺服器机架,有时还直接连到像Comcast或AT&T这样的ISP,并且在伺服器中塞满热门影片。

这代表,当你点阅热门串流影片时,影片可能不是直接来自勒诺或达勒斯的资料中心,而是来自距离你家只有几哩路的主机代管中心。

这些年来,Google也建立起一套软体系统,把数量庞大的伺服器当成一个巨大的实体来管理。内部的开发人员就像布袋戏操偶师一样,指派几千台电脑处理工作,如同执行一台机器一般轻松。

2002年,Google的科学家们开发出Google档案系统,可以流畅地把档案分散至多台机器,还有个用于撰写云端应用程式的系统“MapReduce”也很成功,其开放原始码版本“Hadoop”已经成为业界标准。

Google还开发出一种软体,处理所有得跑巨量资料的企业会碰到的棘手问题。例如,当工作如潮水般进入中心时,如何马上以最有效能的方式判定,哪几台机器的能耐足以处理?Google用于解决这类“负载平衡”问题的自动化系统,称为博格(BorG)。

这些创新让Google得以实现2009年便已成形的概念,出现在一份由霍兹与他最得力的一位副手、资讯科学家路意兹?巴洛索(Luiz Barroso)所撰写的报告中,“令人感兴趣的运算平台不再长得像披萨盒或冰箱了,而是一整个仓库的电脑??,我们必须把资料中心看成是一台像仓库那么大的巨型电脑。”

这对于撰写Google程式码的人来说,真是如虎添翼,和你的电脑是一台同时执行不同程式的设备一样,不必担心要在哪个区块执行哪个应用程式。Google的工程师们可以把为数众多的伺服器当成一台伺服器运用,他们只要撰写自己的产品程式码即可,系统会在伺服器区里把它分散出去。

当然,若基础架构不可靠,就不会有价值,Google已想出创新的办法解决一个问题--人的问题,对于一家建立在演算则与自动化上的公司来说,着眼于这点着实令人惊讶。

Via ? wired