数据中心,顾名思义就是数据的中心,是处理和存储海量数据的地方,英文全称为Data Center。用专业的名词解释,数据中心是全球协作的特定设备网络,用来在internet网络基础设施上传递、加速、展示、计算、存储数据信息。
尽管数据中心听起来神秘高大上,但按照最简单直接的理解,数据中心实际上就是我们个人电脑的扩大版,你的家用电脑就是你个人的数据中心。一般来讲,数据中心主要有几大部分构成:机房(建筑物本身)、供配电系统、制冷系统、网络设备、服务器设备、存储设备等。
那数据中心的这些构成模块相当于你家个人电脑的哪些东西呢?做个简单的类比,机房相当于你家的书房,供配电系统相当于你家的插座、电脑电源再加个笔记本的电池,制冷系统相当于你家的空调以及风扇,网络设备相当于你家的路由器以及运营商在你家安装的光猫等,服务器设备相当于你家的电脑主机,存储设备相当于你家的电脑里面的硬盘或者现在的外置存储。
机房
机房是数据中心的载体。广义上,机房包含了其内部所有的构成要素;狭义上,机房则指的是具体的钢筋水泥建筑物。数据中心一般都有一栋或者数栋大楼组成,这些大楼里面又划隔为若干个区域,用来放置各类设备,这些房子就叫做机房。比如你家里的电脑放在书房,那么你家的书房就相当于机房。不过你家的书房可能只有十平方,而数据中心则大的多。小的数据中心几千平方米,大的数据中心则有数十万平方米。数据中心机房的要求很高,按照我们国家的标准,机房有A类、B类、C类三个等级。主要是根据机房的不同配置而言,这个很好理解,就好像同样型号的电脑,CPU8核硬盘256G的就比CPU单核硬盘64G来的更高端。数据中心的机房建筑设计主要体现在防震、防水、防潮以及承重等几方面,层高、楼板以及桩基都与普通的楼房有明显的差别。
供配电系统
供配电系统是数据中心的能源基础。不管什么设备工作都需要电,数据中心的运转也一样离不开电。打个比方,你的电脑笔记本肯定都有电池,停电一般还能用个把小时。数据中心也一样,那么多的设备如果碰到停电可不能停止工作。数据中心供配电系统主要由交流不间断系统、直流不间断系统、电池、高低压配电、发电机构成。数据中心的供配电系统能够有力保障数据中心的运转不受外部市电的短时停电影响,因此即使停电几个小时甚至数天,数据中心仍然能够保持正常的运作。
制冷系统
制冷系统是数据中心的散热器。夏天如果户外温度升到40度以上,很多人就会感到非常难受,数据中心也一样。一旦数据中心内部机房超过40度,很多设备会出现高温告警,甚至高温保护。早些年的时候,部分品牌的个人PC还比较精贵,比如像H牌的笔记本电脑,买回来的同时还要专门配一个散热器。同样的,数据中心也需要制冷系统,给数据中心及时降温,毕竟几千上万台设备同时运行产生的热量是非常大的,温度一高,设备就会罢工。大部分数据中心机房内部的温度保持在25℃左右,这就需要一个连续稳定的制冷系统不断将机房内部设备运转产生的热量及时排除。数据中心要想长期对外服务,制冷系统是必不可少的。
网络设备
网络设备为数据中心构建对内、对外高速的传输通路。在这个信息爆炸的时代,没有网络的话,电脑和手机的使用价值就大打折扣。同样,数据中心也需要一直连着网络,没有与外界网络连接的数据中心只是一个信息孤岛,发挥不了任何作用。数据中心内部有大量的路由器、交换机、传输设备在支撑其数据的运输流转,大型的数据中心几乎涉及到所有网络相关的设备。并且,为了对外网络的安全可靠,很多重要的数据中心都同时引入不同运营商的传输设备,以银行为例,一般会同时采用移动、联通、电信甚至广电来构建其对外的传输通道,这样即使某个运营商的线路断了,也不影响整个数据中心对外提供服务。
服务器设备
服务器设备是数据中心的心脏,负责数据中心海量数据的处理。对于个人来说,一般家里就只有一台电脑,安装十来个程序游戏。而对于数据中心来说,服务器设备就有成千上万台。并且数据中心的服务器设备品种多样,如果性能上来看,有小型机、大型机、X86服务器等;如果从外形上看,则可以分为塔式服务器、机架服务器、刀片式服务器、高密度服务器等。
存储设备
存储设备是海量数据储存的地方,是用于储存信息的设备。很多大型的数据中心都配备有存储服务器,专门用于存储数据和提供数据服务。数据中心的存储设备可不像我们家里的电脑就一两块硬盘那么简单,数据中心的存储能力通常都是PB级以上,1 PB = 1,024 TB = 1,048,576 GB。而一个大型的数据中心,数据储存能力都是上百PB。如果按照一个磁盘1TB的容量来计算,一个500PB的数据中心就相当于有500*1024=512000块1TB磁盘组成。
数据中心的概念,大家并不陌生,
手机照片的云端备份、
放入电商网站购物车的裙子、
打到永恒钻石段位的王者荣耀,
这一切都依赖于数据中心,
数据中心承载着网络世界,也承载着我们的生活。
可是数据中心发展至今都经历了什么变化?
最早期的数据中心是什么样子?
我们通过时间轴来感受一下数据中心的历史衍变。
上世纪40年代
上世纪40年代,由美国生产了第一台全自动电子数据计算机“埃尼阿克”(Electronic Numerical Integratorand Calculator),体积3000立方英尺,占地170平方米,重量30吨,耗电140~150千瓦,此台庞然大物在革命性地开启了人类计算新时代的同时,也开启了与之配套的“数据中心”的演进。
上世纪60年代
在信息化技术快速发展的上世纪60年代,人们习惯把数据中心叫做“服务器农场”(Server farm),用来容纳计算机系统、存储系统、电力设备等相关组件。你能想象出它的样子嘛?
上世纪80年代
上世纪80年代,微机市场一片繁荣(微机:现在叫“服务器”),通信技术逐步发展,大量的计算机逐渐被应用到各个领域,但是很少有人关心这些计算机的运维需求,然后随着IT运维变得越来越复杂,数据丢失等现象越普遍,所有公司开始意识到IT资源管控的重要性。
上世纪90年代初
到了90年代初,微计算产业迎来了繁荣景象,连接型网络设备取代了老一代的PC,尤其是Client-server技术模型的出现,使得开始将服务器单独放在一个房间里,通过简单设备的布线、链接、分层设计,用“数据中心”一词命名该房间,也就是从那个时候“数据中心”一词开始流行起来,这也是我们现在传统机房最早期的雏形
90年代中期
90年代中期,互联网的兴起对市场产生了巨大影响。网络连接成为了企业部署IT服务的必备选择。网络提供商和主机托管商在成百上千数据中心创建中得到广泛发展,数据中心作为一种服务模式已经为大多数公司所接受。
2000年前后
2000年前后,互联网迎来爆发式增长。在国内,腾讯、新浪、百度等互联网公司兴起,PC端的繁荣需要不间断的网络,促进了数据中心的快速发展,数据中心的建设相比之前变得更为专业,维护成本也非常高。
2005年
2005年,数据中心的设计、建造和运营都已经形成稳定发展的局面,而且就在这一年,电信推出了备受行业认可的机房设计标准,即:中国电信–2005 IDC产品规范;与此同时,美国电信产业也颁布了“TIA942标准”将机房分为Tire1-Tire4,4个级别。该两项标准为数据中心的发展起到了规范和指导作用。
此外,由于涉及到能源方面的制约,数据中心所有者开始逐渐意识到能耗的严重性。美国的数据中心的能耗消耗了占了全部能源的1.5%,并以每年10%的速度递增,于是经济、高效、节能、环保等关键词被纳入对数据中心建设的要求之中。
2007年
2007年,一些大型数据中心运营商开始逐渐采用可循环的能源技术(风能、太阳能等)来支撑数据中心的日常运行,实现节能。同时模块化数据中心出现,最有名的包括Sun Blackbox集装箱数据中心就在此时诞生,集装箱数据中心虽然没有传统的数据中心那么气势恢弘,但建造成本低、灵活的机动性、大幅降低部署周期、相对节能环保,并且可以被运往世界各地。
到2010年
到2010年,随着云计算技术的兴起,云数据中心又逐渐的走进了大家的视线。
在云计算早期,利用SaaS实现了基础架构带来的计算资源的需求向按需定购模式的转变,能更加灵活的调动资源,更加智能地对设备进行管理。但随着云计算技术逐步成熟,将计算层、存储层和网络层融合到一个硬件设备中,通过超融合的架构实现数据中心管理,进而有被称之为“超融合架构数据中心”。
数据中心的演化到此就嘎然而止了吗?
有没有新的形态?
Duangduangduangduang
8月22日
在北京国际会议中心举办的
“2017开放数据中心峰会”上,
将会展现一种新型数据中心,
“全融合微型液冷数据中心”
什么叫全融合?
继“超融合架构数据中心”之后的“全融合微型液冷数据中心”是绿色云图(网宿科技全资子公司)采用自研技术浸没式液冷技术+一体化液冷机柜+超融合云架构融合而成,在超融合架构的基础上继续融合了“数据中心功能”。高度集成了计算、存储、网络、安全等功能模块,集成云技术的管理能力和调度能力,轻松实现在本地搭建,自带远程web界面监控功能,并且支持单个网点远程监控,多个网点统一管理的功能,本地显示屏可实时监控设备运行状况.
该微型数据中心放置室内的尺寸最小仅有
W868mmD680mmH1260mm,
麻雀虽小五脏俱全。
什么是液冷技术?
“直接浸没式液冷技术”是绿色云图自主研发,该技术已经获得14项相关的知识产权。在2016年,液冷技术就已经成熟应用于网宿科技的部分云计算节点,液冷技术的出现革新了大家对“传统数据中心”的认知。
除了以上微型和液冷技术的应用之外,
该数据中心还有以下优势:
1
节能、环保、静音
相比传统机房的PUE值2.0-2.5,”全融合微型液冷数据中心“的PUE值低至1.3(液冷技术用于大型数据中心时PUE值逼近1.0),节省了电力资源,节能环保;并且完全静音防尘,安全可靠,采用全浸没式设计,完全隔绝灰尘及腐蚀性气体,降低IT设备故障率。
2
快速部署、降低采购运营成本
具备快速部署、轻松扩容的特点,不需要独立的空间,仅放在办公室一角即可,无需配备专业运维人员,降低采购运营成本。
“全融合微型液冷数据中心”的出现为科研机构、企业、行政事业单位、游戏动漫、视频渲染等在IT设施建设本地化应用方面提供了便捷的操作与服务。
科技的发展日新月异,
数据中心的变革不但见证了IT产业的发展,
也代表着人类的进步。
把“数据中心”搬到办公室,
不再是梦想,
“全融合微型液冷数据数据中心”,
颠覆了人们对传统数据中心的认知
将在数据中心发展的历程中画下最精彩的一笔。
确定数据中心的选址是一家公司的关键决策之一,因为其涉及到一家公司的发展战略和目标。任何关于数据中心的选址的讨论都无法避开诸如清洁的能源供应、通信、数据中心层等因素。故企业的管理层必须要给予企业的总拥有成本(TCO)、及其长期和短期的目标来做出相关的选址决定。
企业数据中心的选址起着非常重要的作用,因为它会直接影响企业的成本和总体拥有成本(TCO)。
影响企业数据中心选址的因素分析
现实中,有许多因素影响企业数据中心选址的因素。而所有这些因素都应该从战略的角度来看,因为现如今,一个行业的重点可能会每隔3至5年发生改变;而每隔7至10年,需要转换或更新采用新的技术。在下文中,一一介绍了影响数据中心选址的各种因素:
地理位置:首先,也是最重要的因素便是数据中心的地理位置。这在决策的一开始就应该被充分进行考量。需要分析的因素包括:在备选址地点发生自然灾害的概率和频率(洪水、飓风、龙卷风等);环境危害因素(数据中心对于其所在地环境影响的程度);以及气候因素(数据中心备选址地点的气候是否有免费的外部空气冷却——将是额外的一个非常好的优势资源。
电力能源供应:电力或动力关于也是很重要的因素之一,因为其是数据中心设施经营成本的主要成分之一。我们需要了解的因素包括:可用性——在了解当地电力供应情况的同时,我们需要权衡备选地点是否有多个成熟的电网;成本因素——我们还需要比较各种电力成本??。也就是说,每千瓦时的动力源的成本应该足够低;具备替代的能源——决策管理层还需要考虑备选地点是否有诸如太阳能、风能、空气等可再生的能源,这将有助于企业打造更加绿色的企业形象。
通讯基础设施:数据中心的通信问题也是最重要的组成部分之一。数据中心选址时,需要从通信基础设施的角度需要考虑各种因素。如:光纤主干线路及其距数据中心选址的距离。这将有助于衡量从光纤主干线路到数据中心选址所需投资的确切数据;光纤类型,这会影响传输速度;所在地通讯服务运营商的类型及其支持的服务模式;延迟因素,传输和交付延迟时间也将是一个重要的因素。
税率:另一个重要方面是备选地点的政府税率问题。需要考虑的因素包括:物业税、企业税和销售税。
建筑因素:在任何特定的位置建设一个数据中心,建设成本亦发挥了重要作用。在企业做出数据中心的选址决策之前,应从以下几个方面考虑:该地区建筑行业的成熟度、是否有数据中心的建设经验、相关的建筑技术是否到位、当地的建筑工人是否到位、劳动力成本是否是在企业的可承受范围内。
交通运输:各种运输方式的可用性也是数据中心选址的影响因素之一。数据中心的设备必须交付,而工人和相关的供应商也需要便捷的交通达到数据中心所在地。
生活成本:数据中心所在地的生活成本也应该成为企业数据中心选址的一个重要因素。
近几年,我国数据中心发展迅速,2015年我国数据中心突破1500万平方米,而其日益突出的能耗问题也越来越不容忽视,2015年数据中心的电耗为1000亿度,年耗电量超过全社会用电量的1.5%。
据调查,国外数据中心采取多样的节能改造措施,将PUE平均值控制在1.2以下:美国俄勒冈州Facebook数据中心,通过在顶部修建巨大的中央通风系统和蒸发间,让干空气带走热量,将PUE控制在1.05~1.10;芬兰哈米纳的Google数据中心,利用海水循环降温,将PUE控制在1.14;冰岛雷雅内斯巴的Verne Global数据中心,采用当地丰富、便宜的地热和水力资源供电,利用冰岛天然的寒冷,干燥的天气用于设备降温,将PUE值控制在1.2。而我国数据中心能源利用效率水平整体偏低,我国的大多数数据中心的PUE值大于2.0,平均值更是高达2.5。
但研究表明,应用现有节能技术,可使数据中心IT设备系统、空调系统、配电系统平均实现节能25%、36%和18%,使数据中心整体平均实现节能35%。因此,对我国数据中心进行节能优化是十分有必要的。
一、数据中心能耗调研
1.1 调研对象及内容
本次调研对象为北京市12处数据中心,其基本信息见表1。本次调研对象从投入使用时间、规模以及制冷形式来看,基本涵盖了北京市所有数据中心的类型,选取的数据中心样本具有一定的代表性。调研内容包括数据中心基本信息、能源评价信息、能耗指标信息、能源管理系统信息。
1.2 调研方法
对主要耗电量(供电系统、制冷系统、照明系统)分别计量,采用2h一次的测量周期。在UPS的输入端与输出端分别安装电表,利用两者差值计量供电系统的用电量。监测制冷系统的用电量应包括室内空调末端,水冷式制冷还包括压缩机、冷冻水泵、冷却水系统、末端冷冻水系统的耗电量。
1.3 调研结果
根据上述方法,得到各数据中心的总用电量、IT设备用电量、空调用电量、可再生能源发电量等能耗指标,整理后得到各数据中心的PUE和CLF值。具体信息如表2所示。
1.4 调研分析
1.4.1 数据中心投入使用时间对PUE的影响
由图1可以看出,2012年后投入使用的数据中心的PUE值基本在1.3-1.8之间,2012年前建成的数据中心的PUE值基本在1.8-2.5之间。说明新建成的数据中心已经开始重视数据中心高能耗的问题,越来越注重节能措施在数据中心中的应用。
1.4.2 数据中心规模对PUE的影响
由图2可以看出,数据中心的面积对于数据中心的能耗指标PUE值有一定的影响。定性地分析,数据中心的PUE与面积的大小基本成反比关系,面积较大的数据中心的PUE值较低,而面积较小的数据中心的PUE值相对较高。
1.4.3 数据中心制冷形式对PUE的影响
本次调研中,风冷式的数据中心的PUE值基本在1.9左右,水冷式的数据中心的PUE值基本在1.7左右。风冷式直接蒸发式空调系统的初投资成本最低,系统组成简单、器件少、施工简单工期短,但是制冷系统效率低,运行稳定性差,维护成本极高,适用于水源缺乏的地区、小型数据中心[9]。水冷式直接蒸发式空调系统的初投资成本稍高,需要布置冷却塔及空调水系统,但是制冷系统效率高,维护成本低,适用于有集中冷却水系统的场所[10]。因此,风冷式数据中心的PUE值要高于水冷式数据中心。
二、数据中心节能优化
根据上述调研结果,以北京市某数据中心为对象,对其进行DeST能耗模拟及节能优化。该建筑主要功能房间现有的空调系统设计、空气处理设备以及冷热源设计如表3所示。
2.1 空调系统方案改造
对原有空调系统进行改造,提出两种改造方案:
方案一:风机盘管加新风系统,空调系统的运行作息按照办公室空调启停作息,根据人均新风量和维持室内正压最小新风量综合确定房间总的新风量;
方案二:全空气变风量系统,各房间的送风范围4-8次/h。
对上述空调系统方案进行模拟计算,可以计算得到各系统全年满意(系统可达到设计要求)小时数如表4所示,对比发现各房间全年满意小时数有明显增加,有的甚至增加了一倍。
选取全空气定风量系统和风机盘管加新风系统在不满意时刻(3月6号上午9点)各个房间室温和送风量情况,系统大部分需要供热,一部分房间需要制冷。有些房间温度已经达到室温下限,有些房间温度已超出室温要求上限,因为是定风量系统,所以并不能通过风量来调整,从而系统无法同时满足各个房间的要求。选取全空气变风量系统同一时刻,系统大部分需要供热,一部分房间需要制冷。有些房间温度已经达到室温下限,将风量调小可以使房间温度上升,达到室内要求温度;有些房间温度已超出室温要求上限,将风量调大可以使房间温度下降。因此全空气变风量系统可以通过调整各房间的风量来同时满足各个房间的要求。
2.2 空气处理设备方案改造
2.2.1 冷器选型
利用DeST对原有方案全年运行情况进行逐时模拟计算。计算得到,方案不能满足设计送风状态要求的小时数达到295h。针对某一不满足要求的时刻,设备无法将空气处理到此时此刻系统要求的送风状态点S点,只能将空气处理到与其温度相当的O点,但要求的除湿量却相差很大,使室内含湿量过大。因为8排的表冷器的通用换热效率高,湿工况运行时,表冷器处理空气状态点接近饱和线,如果此时将空气从混风状态点M点除湿到与S点等湿值得状态点,空气温度会比送风状态点S点低很多,送风温度无法满足要求,所以此时此刻设备无法同时满足送风温度和湿度的要求。采用4排带旁通的表冷器,通过处理部分空气到低温低湿状态再与未处理空气混合便可以达到送风状态点,可以很好地避免上述问题。
2.2.2 热回收处理方案改造
利用DeST对不设新排风换热器、设置显热回收器、设置全热回收器三种方案进行模拟,比较三种热回收方案的运行能耗。设置显热回收器额定的温度效率为0.7,全热回收器额定的温度效率0.7,额定的湿度效率0.7。模拟得到三种方案的运行能耗依次为18863.6kWh、15562.5kWh、11523.8kWh。该系统采用全热回收的方式运行与不设置热回收装置相比可节省了38%的运行能耗。
2.3 冷热源方案改造
利用DeST对建筑逐时需要冷量分布情况进行分析,分析结果见表5。可以发现,冷量需求在低于1600kW的范围内比较集中,尤其是冷量需求低于1200kW的小时数占到需要开启冷机总小时数的60%。
数据中心最大的冷量需求为2980kW,对此选出两种冷机搭配方案:
(1) 额定冷量为1500kW离心机2台;
(2) 额定冷量为1140kW离心机2台,额定冷量为720kW离心机1台。
本次数据中心采用二次泵水系统形式,冷机的工况和水系统直接相关。上述两个搭配方案所选择的设备参数和台数见表6。
两种方案的冷机总额定冷量相同,都满足系统的逐时冷量需求。系统运行时会根据末端的冷量需求确定开启冷机的台数,随着末端冷量需求的变化,冷机大部分时间会工作在部分负荷点,因冷冻机部分负荷时的COP不同,所以不同的冷机搭配会有不同的运行能耗,运行能耗的差别与系统的负荷分布情况有关。
图4所示为某一时刻,不同冷机方案下对应的冷机电耗及COP。对冷机全年运行电耗进行模拟分析,方案1和方案2的全年运行能耗分别为19165kWh和1589 kWh,方案2的冷机搭配方案下的冷机全年运行电耗与方案1相比有明显降低,降低了17%的运行电耗。
2.4 输配系统方案改造
数据中心采用二次泵系统,二次泵的运行方式有两种:根据用户流量需要台数控织,根据供回水压差变频控制。对两种控制方式的水泵运行电耗进行模拟,结合初投资进行经济性分析,来确定二次泵的运行方案。
由图5(a)可知,二次泵以台数控制的方式运行,水泵的工作点扬程大部分时刻高于11m。由图5(b)可知,二次泵以变频控制的方式运行,水泵的工作点扬程维持在11m。对两种控制方式的水泵运行电耗进行模拟可得,台数控制与定压差变频控制下的水泵电耗分别为7895kWh、6524kWh,采用定压差变频控制方式可节省电耗16%。
对两种运行方案的二次泵初投资及生命周期运行费进行计算,见表7。因为初投资的增加,变频的寿命周期费用仅略小,对数据中心而言,从经济性角度看,定压变频控制的优势并没有那么明显。
三、结论
本文通过对北京市12个数据中心进行能耗调研和对北京市某数据中心进行能耗模拟,得到如下结论:
(1) 数据中心的能耗指标PUE值与数据中心的规模、等级、制冷形式和使用时间等影响因素有关。投入使用时间在2012年之后的PUE值明显低于之前的数据中心的PUE值。数据中心的PUE与面积的大小基本成反比关系,面积较大的数据中心的PUE值较低,而面积较小的数据中心的PUE值相对较高。风冷式的数据中心的PUE值基本在2左右,水冷式的数据中心的PUE值基本在1.5左右。
(2) 将空调系统改为全空气变风量系统,可以保证室内IT设备的正常运行。将通用换热效率更高的8排表冷器换为通用换热效率4排带有旁通的表冷器,很好地解决了某些不满足要求的时刻无法将空气处理到送风状态点的难题。
(3) 通过设置全热回收装置节省了38%的运行能耗。根据系统对冷热源提出的冷量、热量需求确定选用的冷热源的容量,进行冷机搭配。通过分析数据中心逐时需要冷量的分布情况,选用多台离心机,不光提高了冷机的COP,就全年运行电耗而言,也节省了17%的能耗。
(4) 对二次泵的两种运行方式进行电耗模拟,从节能角度,变频水泵的节能效果优于控制台数,节省了16%的电耗。对两种运行方案进行经济性模拟,从经济的角度来说,控制台数初始投资小,变频水泵并无明显优势。综合两者进行考虑,选定控制台数的运行方式更为适用该数据中心。
一、问题的提出
中国现有数据中心达55万个,大部分耗电严重,急需改造。
中国云产业发展国家规划指出,三年后“云计算”年产值规模将达到2000亿元,其中IaaS市场规模占150亿元。云基础设施大规模建设主要划分为:大型SaaS系统支撑;民营公有云数据机房;高校计算与数据中心;政府机关政务云建设;物联网应用的数据存储(感知与监控)。
数据中心机房多年来一直处于使用机房专用精密空调做为主要制冷设备。随着计算机设备的更新换代,IT设备的功率密度越来越高,机房面积越来越大,机房的数量越来越多,世界能源越来越紧张。在全球能源问题日趋突出的情况下,虽然机房空调制冷能效比有所提高,但所耗费的电能仍然太高,一直困扰着机房运营商和用户。
00001
二、解决问题的途径
如何运用新的技术降低机房制冷所消耗的电能,建设绿色环保机房,已成为机房行业建设者们关注的核心问题。
国内传统数据中心PUE多半在2.0以上,一半以上的电能被空调占用。
拥有一千台服务器的数据中心,年总耗电超出1000万度,而空调就占用500万度。00002
按目前机房各参数较低标准估算:
服务器耗电(取低值,600w~1500w/台)、工业用电≈1元/度
服务器年耗电量(度)=服务器数×600W×24小时×365天÷1000
经过机房模块化建设机房,一至两年节省电费可新建一个机房。
工业和信息化部以文件的形式“十二五”重点任务?统筹部署绿色数据中心建设。
落实《工业和信息化部发展改革委国土资源部电监会能源局关于数据中心建设布局的指导意见》(工信部联通〔2013〕13号),促进数据中心选址统筹考虑资源和环境因素,积极稳妥引入虚拟化、海量数据存储等云计算新技术,推进资源集约利用,提升节能减排水平;
出台适应新一代绿色数据中心要求的相关标准,优化机房的冷热气流布局,采用精确送风、热源快速冷却等措施,从机房建设、主设备选型等方面降低运营成本,确保新建大型数据中心的PUE值达到1.5以下,力争使改造后数据中心的PUE值下降到2以下。
确保新建数据中心的PUE值在1.2~1.4之间,改造数据中心的PUE值在1.9以下(一般会在原数据中心PUE值基础上递减30%)。
00003
三、具体解决办法
数据中心风冷却的常态节能措施主要采取降低机房散热所消耗的电能,提高数据中心机房的电源使用效率,从而降低IDC的PUE值。
目前主要有7种常态节能措施:
(1)在数据中心机房中建设冷通道,并配置下送风机房专用风冷式精密空调。
(2)在数据中心机房中建设热通道,并配置下送风机房专用风冷式精密空调。
(3)在数据中心机房中建设专用风冷式精密空调冷风和热风管道,对机柜进行全密封强制散热。
(4)在数据中心机房中使用下送风机房专用风冷式精密空调和智能送风机柜,将机房冷风净压仓的冷风直接送入机柜。
(5)在数据中心机房采用大型水冷式机房精密空调。
(6)在数据中心机房建设专用大型水冷式机房精密空调和芯片冷却管道,直接给IT设备芯片散热。
(7)在数据中心机房采用机房风冷式精密空调+大型新风机1:1配置。
从以上任一种类IDC常态节能措施分析来看,都并非最佳方案。具体分析如下:
从冷源方面说,第1、2、3、4种均都是采用机房专用风冷式精密空调作为冷源,第5、6种采用水冷式精密空调,第7种采用风冷式精密空调或自然冷风和水模。
使用风冷式精密空调在节约电能上主要依靠空调的制冷能效比,能效比在3-4之间,节能方面有限;使用水冷式精密空调,能效比最大能达到6,一般在4以上;使用自然风的新风节系统时,最大能效比可达12。
机房设备制冷效果第1、2、5、7种都采用冷风源被动平均分布散热,要求整个机房的发热量布局要非常均衡,否则可能出现机房冷热不均,单相机柜局部过热的问题。
第3种采用主动大风量强制散热,每个机柜热出风管道都配有风机,散热效果好,容易出现过度制冷,风机也需要消耗一定的电能。
第4种采用主要设备机柜进风口配置变速风机,动态给机柜提供冷风,较好解决局部单个机柜过热和机柜内热负荷突然增大的问题,将机房内温度提高到空调的回风温度,但机柜的深度比普通机柜深度要大100㎡,风机需要消耗电能。
第6种采用精准散热,主芯片散热效果好,但电源、硬盘等部件需精准散热不容易实施,需要服务器产商支持。
机房设备散热建设难易成度第1、2、4、7种比较接近,比传统下送风空调系统略微复杂一点,容易实施,成本相差也不大。
第3种,需要对机柜前后门进行密封,实施困难,风管建设比较多,对机房的整体布局有影响,需要非常细致的规划和设计,成本相对要高一些。
第5种,水冷空调的建设门槛较高,比较适用于大型的机房,空调设备比风冷式精密空调要复杂,成本相对要高一些,运行也需要专业维护人员。
第6种,空调部份和第5种一样,但是分支制冷管道方面,会相对复杂很多,要非常了解服务器产商等设备的结构,甚至于需要它们的支持,成本方面相对会高出一部份。
四、结束语
成功设计并建造了低能耗、耐高温、高密集度服务器集群,高承重机架,数据中心外气导入系统和内部气体环流控温系统;实现了以自然冷源替代传统空调设备维持数据机房温湿度,在保证数据中心连续、可靠运行的同时,数据中心的能耗自然就会显著降低。
关键是采用上述技术,在IT设备利用率大幅提高和采用新温控技术的情况下,如何能够使数据中心耗能较传统数据机房整体节省60%左右,使节能减排效果一步到位,这些仍然需要我们不断采用国际前沿技术和设计理念,而最终通过规范数据中心内部气流组织,提高冷量利用率;通过模块化建造方式,实现数据中心规模弹性扩展,减小数据中心初始投资;通过即插即用的机房模块产品,缩短建设周期,提高工程质量;并且最终解决数据中心的运行电力消耗大、数据中心建设周期长、工程质量难以保证等制约国内“云计算”与“大数据”产业发展的重要问题。