云计算探讨系列(二)――云壤相接

数据中心正快速演化为服务工厂
下面这件事基本上和接上一台激光打印机一样简单。总共2500台服务器―本质上讲是大功率的个人电脑―被塞进一个40英尺(13米)高的航运集装箱里。接着一辆卡车把它卸在一个光秃秃的钢筋混凝土的建筑物里。工人们迅速接上电源、网络和水冷却装置,需要的软件则被自动下载。四天内所有的服务器就准备好把视频文件装盘、发送电子邮件或者处理公司的客户数据了。
这就是微软位于芝加哥市郊北湖的新数据中心,占地面积五十万平方英尺(四万六千平方米),耗资五亿美元,这里是世界上最现代、最大、最昂贵的数据中心。未来它可以容纳四十万台服务器。整个一楼将被类似这样的两百个集装箱占满。微软数据中心主管Michael Manos因为这些集装箱而非常兴奋。它们解决了建造巨型数据中心出现的问题:如何经济地把服务器打包和运输、如何限制它们对电能的需求,还有如何只在有需求时才安装他们以免让这些昂贵的资产闲置。
但集装箱并不是唯一让Manos先生感到骄傲的。微软在芝加哥的数据中心和世界上别的数据中心一样都配备了可以显示每一个应用消耗多少电能、排放多少碳的软件。“我们在建造一个全球信息公用设施,”他说。
差不多一个世纪之前,在汽车厂第一条移动组装生产线上工作的工程师说话一定和他一样激动。就像亨利福特在密歇根州的Highland Park的第一个大型工厂一样,微软的北湖数据中心有一天可能也被视为一个新工业时代的标识。
在福特对汽车生产进行革命之前,汽车是由一群熟练工在车间里组装起来的。与之类似,今天大部分数据中心都有一群“系统管理员”的大部队,他们是信息时代的操作工。单单美国估计就有7000个左右这样的数据中心,大多数都被一次性设计好,年复一年的使用,这些反映出技术的变迁和它们的一些特殊用处的历史。无疑它们都惊人地低效。 一项由咨询公司麦肯锡和智库Uptime研究院的调查显示,这些服务器平均只有6%的利用率,将近30%的服务器完全没用,却没有人想去掉它们。经常是没人知道哪个应用是跑在哪台服务器上,解决这个问题的常用方法是:“我们拔掉插头看看谁打电话过来吧。”这应该怪罪于有局限的技术和错误的激励。数据中心最广泛应用的操作系统是Windows,它只允许一个应用跑在一台服务器上,不然就会崩溃。所以IT部门有新的应用需求就不停地加新机器,这样就导致“服务器蔓延”的情形。一般情况下这样做也能说的过去:服务器比较便宜,不断增长的电费单一般都算到公司公共事业费的预算里而不是IT部的头上。
 
要理解使数据中心工业化需要的技术,我们来看看电力的历史会有些帮助。“旋转变流器”这种把一种电流转化成另一种的装置广泛使用之后,不同发电厂和发电机就可以组装成通用电网。与之类似,一种称作“虚拟化”的技术现在让物理上分离的计算机系统成为一体。
 
新虚拟
虚拟化起源于上世纪60年代,当时IBM开发了这个技术让客户更好地使用他们的大型机。之后虚拟化技术一直在暗处徘徊,直到世界上最大的软件公司之一的VMware把它应用到今天的数据中心上的计算机上。它开发了一个叫hypervisor的小程序,一种可以监控计算机处理器和内存访问的电子流量计,这样就把服务器分为几个“虚拟机”,每一个都可以跑它自己的操作系统和应用。
“某种意义上说,我们在清理微软的流毒,”VMware的老板、微软的老员工Paul Maritz说,“这样我们就把计算的任务与硬件分开了。”当计算机变得或多或少的无实体了,所有的可能都出现了。虚拟机只需要几分钟就可以做好,运行的时候可以被迁移,也可以集中到一台服务器上以节能。还可以有相同的虚拟机备份,原先的进程有问题另外一个可以接上。它们还可以被打包成“虚拟电器”出售。
VMware和它的竞争对手们,现在也包括微软,都希望最终把一个甚至数个数据中心转换成单一的计算、存储和网络资源池,当有需求就可以把资源分配出去。当然这样一个被Gartner的Thomas Bittman称为“实时的基础架构”要实现尚需时日。不过其中必需的软件已经开始成为现实。比如九月份VMware就发布了新的“虚拟数据中心操作系统”。
可能令人意外的是,能展现这一切发展前景的是在线零售商Amazon。2006年它就提供了一种计算公共程序叫做Amazon网页服务(AWS)。有信用卡的人就可以在Amazon庞大的计算机系统里启动一个虚拟机。程序开发者有需要就可以迅速添加额外的机器,没有需求就关闭机器(这是为什么这个公共程序叫做弹性计算云,或者EC2)。这项服务很便宜:比如一个虚拟机,每小时只需10美分起。
如果Amazon已然成了一个云计算的先锋,那完全是因为它把自己定位为一家技术公司。当它细化到零售类别时,它必须开发出现有收费的平台基础上更复杂的平台。“当然这和卖书无关”,AWS产品管理的主管Adam Selipsky说,“但它和我们卖书的平台非常相关。”
其实Amazon也不是唯一提供工业级别数据中心服务的大型在线公司。据说Google运营着全球超过两百万台服务器的三十几个数据中心网络(虽然Google不愿意确认这件事)。微软正在斥巨资每月增加高达35000台服务器。其他的网络巨头比如雅虎也在忙于建造巨型服务器农场。
在一些地方数据中心建设热潮已经风生水起。当中有六个建在了美国华盛顿州中央靠近哥伦比亚河的一个叫做Quincy的小村子里。这里有个大坝,可以生产便宜的电能,电能是除了IT设备之外对这种计算农场来说最大的投入,所以这里很有吸引力。平均来说,冷却耗费和计算差不多的电能。比如微软在芝加哥附近的新数据中心就有三个总容量高达198兆瓦的分所,这和一个小型熔铝炉的电力要求差不多了。
但便宜的电能固然重要,也只是数据中心选址的标准之一。微软目前把35组数据输入到一个世界电子地图里,地图包括上网连接性能,获得IT员工的方便与否,甚至空气质量(干燥的空气有利于制冷),综合来看哪些地方合适哪些地方应该避免。显然西伯利亚胜出了。
Google好像在考虑把数据中心建设这件事搞到海上去。八月份它申请了一项水上数据中心的专利。“计算中心放在船上,固定在水体中,随着水的自然流动产生电能发电来冷却”,专利申请上如是说。
许多首席信息官会喜欢把它们的IT基础架构搞到海上去的主意,最好把它弄沉算了。尽管企业计算需求持续上升,IT预算却一再被削减。同时许多公司的现有IT架构正在从薄弱的裂缝开始蔓延恶化。市场调查公司IDC的调查显示,四分之一的美国数据中心已经无处安置新的服务器。对其他的数据中心来说冷却成了一个大的约束条件。很多时候公共工程无法为其扩张提供多余的电力。
 
更少、更大、更好
所以IDC认为很多数据中心将被整合而且迎来一次彻底改变。IT行业本身就开始带起头来。例如,惠普曾经在全球有85个数据中心和19000名IT员工,它期望到今年年底可以减少至在美国的6个数据中心、8500名员工,这样可以把IT预算从占销售额的4%减少至2%。
其他大型组织也紧随其后。英国电信,已经把其全球的57个数据中心的服务器数量从16000减少到10000还同时增大它们的产出。美国船运公司把它的IT站点从175个减少至100个。这两个公司也开始建造内部云以便迁移各种应用。预计越来越多的公司会开始构建相同的内部的,或者说“专有的”,云。现在的经济危机可能会加速这个趋势,因为公司都在追求更高的效率。
但公司会在多大程度上把他们的计算需求外包给“公共”云呢?Forrester公司的James Staten评论说现在的经济环境正促使特别是小公司作出改变。云的提供者,他说,拥有运营数据中心的专门技术,还可以从更大的基础架构中获得规模效益。不过很多公司还是不愿意公司的数据在公共云中跑,这样数据可能最后会跑到别人手里去。本报告的结论部分会更详细讨论安全问题。
Amazon和Google最近即使把服务中断登上头条也无济于事。现在很少几家云提供商会提供关于服务连续性和安全的保证(称作“服务级别协议”,或SLAs),或愿意承担备份的义务。
结果呢,Staten先生说,云计算还没有在早期认知的阶段向前演进多少,意思是只有少数大公司在使用它,而且只是在几个不会特别影响业务的项目中使用。比如,纽约时报使用过Amazon的AWS服务,把在布什在任期间希拉里克林顿的超过17000页的白宫日程安排转换成24小时内可供搜索的数据库。纳斯达克用云来推动提供历史股票市场信息的服务,叫做“市场重放”。
英国电信IT架构改革负责人Stefan van Overtveldt认为,为了吸引更多客户,服务提供商们将必须提供“虚拟专用云”,即在公共云里的一片受保护的云。英国电信计划像急需更多性能的公司提供这项服务。
所以,今后不会只有一种云而是很多不同样的:私有的和专用的,它们自己也会分为针对通用功能和专业功能的。网络设备的领先制造商思科,已经开始讨论“因特云”,一个各种云的大集合,就像因特网是各种网络的网络那样。所有的云都会充满各种应用和服务。

你可能感兴趣的:(职场,休闲)