数据中心

数据中心

  • 前言
  • 一、数据中心的概念
    • 1、数据中心的定义、作用及其分类
    • 2.数据中心的发展历程
    • 3.数据中心的组成及建设原则
    • 4.云计算、大师据时代的数据中心发展趋势
  • 二、数据中心的基本单元——服务器
  • 三、数据中心选址
  • 四、数据中心的能耗
    • 1.数据中心能耗评估
    • (1)数据中心选址的影响
    • (2)三种冷却方案的能耗比较
    • 2.数据中心的主要节能措施

前言

现如今,各种类型的数据正在以爆炸性的方式迅速增长,大数据的出现正迫使企业不断提升自身以数据中心为平台的数据处理能力。同时,云计算、虚拟化等技术正不断为数据中心的发展带来新的推动力,并正在改变传统数据中心的模式。本章将介绍数据中心的概念,数据中心的发展历史,数据中心的组成单元-服务器,以及数据中心的选址及能耗问题。

一、数据中心的概念

数据中心是全球协作的特定设备网络,用来在Internet这一网络基础设施上传递、加速、展示、计算、存储数据信息。数据中心的主要目的是运行应用来处理商业和运作的组织的数据。数据中心不仅是一个网络概念,还是一个服务概念,它构成了网络基础资源的一部分,数据中心的建立使得企业和个人能够迅速借助网络开展业务,把精力集中在其核心业务上,而减少 IT 方面的后顾之忧。数据中心是云计算的基础设施,云计算在数据中心的基础上提供的各类服务。

1、数据中心的定义、作用及其分类

数据中心是一整套复杂的设施,它不仅包括计算机系统和其他与之配套的网络、存储等设备,还包含冗余的数据通信连接设备、环境控制设备、监控设备以及各种安全袋置。Google 在其发布的《The Data center as a Computer》一书中,将数据中心定又为:多功能的建筑物,能容纳多个服务器以及通信设备,这些设备被放置在一起是因为它们具有相同的对环境的要求以及物理安全上的需求,并且这样放置便于维护,而并不仅仅是一些服务器的集合。

可以看到一个数据中心中包含几个基础组件:服务器、网络和存储。存储根据应对场景的不同,包含了 NAS (Network Attached Storage, 网络附属存储。提供文件共享空间,存放非结构化数据)和 SAN (Storage Area Network, 存储
区域网络。提供块数据的访问,通常用于存放结构化数据,如数据库、邮件等业务应用的数据)两种方案。企业级存储通常还包含了备份或容灾体系,在这个图4-1所示的数据中心其中还有专门的备份存储。
云计算出现以后,对数据中心提出了新的挑战和要求,不过仍然包含服务器、网存
储这三大基础组件,但是组件的呈现形态以及控制方式发生了很大的变化,如软定义的数据中心(Software Defined Data Center, SDDC) .SDDC 可以视为私有云的云计算平台的最佳落地方式,而软件定义的存储(Software Defined Storage, SDS) 是其中的重要组成部分。实际上可以说:软件定义为云计算而生。

目前,IT 巨头们,包括 Google、微软等等都已投入巨资到数据中心建设中,根据数据中心的作用,可以将数据中心分为企业数据中心和互联网数据中心两类。

企业数据中心(Enterprise Data Center, EDC) , 通过实现统一的数据定义与命名规范、集中的数据环境,从而达到数据共享与利用的最终目标。如果是具体的企业或位,数据中心就是业务数据存储技术+数据仓库,当然,有的单位只有数据仓库,如科研单位,他们不做业务处理,只有分析需求。企业数据中心按规模划分为部门级数据中心、企业级数据中心、互联网数据中心以及主机托管数据中心等。通过这些规模从小到大的数据中心,企业可以运行各种应用。一个典型的企业数据中心的设备通常包括:主机设备、数据备份设备、数据存储设备、高可用系统、数据安全系统、数据库系统等。这些组件需要放在一起,确保它们能作为一个整体进行运行。

互联网数据中心(Internet Data Center, IDC) .如果是互联网公司,其数据中心就和普通企业和单位的数据中心不同,因为互联网的信息实在庞大,不可能将所有信息都存储到数据中心的数据库中,数据中心也处理不了那么多的信息,所以互联网环境的数据中心的作用就是加强互联网数据的处理速度和效果。互联网数据中心为互联网内容提供商、企业、媒体以及各类网站提供了大规模、高质量、安全可靠的专业化服务器托管、空间租用、网络带宽等服务。IDC是对商户、入驻企业或网站服务器群托管的场所,是各种模式电子商务赖以安全运作的基础设施架构,也是支持企业及其商业联盟(包括了分销商、供应商、客户等)实施价值链管理的安全平台。

2.数据中心的发展历程

数据中心演进的4个阶段

2012年,IBM公司进行了一项深入的研究,调查了7个国家的300多名IT主管,以评估全球IT网络中数据中心的总体运营状况。

在该研究中,发现只有五分之一的数据中心符合IBM公司的战略数据中心标准。“为什么要关心2012年开展的这项研究?”人们可能会问,“难道不是只是为了不进化而进行质疑吗?但是,自从IBM公司开展这项研究以来,战略数据中心的比例在几年后已经发生了变化,他们创建的四个发展阶段模型仍然是一个非常相关和有价值的工具,用于评估数据中心需要进一步开发的数量,才能最大限度地发挥企业业务的潜力。

第1阶段:基础数据中心

IBM公司定义的基础数据中心将很少或根本不使用虚拟化服务器,因此过度依赖物理硬件。其资本支出很高,不存在颠覆性升级和冗余。

如果出现问题,采用任何解决方案进行解决都可能需要几天的时间,并且其性能可能因应用程序和站点而有很大差异。

第2阶段:综合数据中心

如果用户决定在基本数据中心的基础上再进一步,并整合其服务器,那么这样做的最大动力通常是降低成本。随着更多虚拟机和重复数据删除工具的推出,服务器管理更加简化,为其他项目的实施节省了人力和物力。同时,可以对更多存储设备实现虚拟化,从而减少对物理存储服务器的需求。

说实话,即使IBM公司承认一个数据中心阶段与另一个数据中心阶段之间没有正式划分,但人们应该这样看待它:如果每台服务器运行四个以上的虚拟机,并存储超过20%的数据,那么几乎是接近整合数据中心阶段。

第3阶段:可用数据中心

而比数据中心使用虚拟化百分比更强的指标,是业务IT优先级从削减成本到提高可用性的转变。由于大幅削减资本支出,运营支出更易于管理,进一步的开发将涉及优化数据中心,以便所有应用程序完全可用,并在各个数据中心中表现良好。

一旦企业的数据中心达到可以充当计算资源池的阶段,其重点将不可避免地转变为衡量和提高服务水平。企业还需要构建治理过程以确保满足业务要求。

如果是这种情况,那么现在可以将这样的数据中心定义为可用数据中心。

第4阶段:战略数据中心

正如IBM公司所定义的那样,明智的企业的主要目标是进入战略数据中心阶段。到目前为止,基于策略的自动化工具可以腾出更多的员工时间。由于很少需要人工治理,数据中心员工可以将其时间和精力投入到其他业务中。

在此提供一些数据:IBM公司的研究发现,当达到战略数据中心目标时,53%的企业IT预算和60%的员工能够投入新项目中。相比之下,仍处于基础数据中心阶段的企业只能将35%的预算和不到30%的员工分配给整体项目。而这是一个非常令人瞩目的差异。

(“华为数据中心的发展与演进”、“企业数字化转型浪潮下的IDC发展机遇”、“数据中心的虚拟现实”,更多精彩内容,尽在第十三届中国IDC产业年度大典。)

构建战略数据中心的4个步骤

在同一项研究中,IBM公司提出了一个具有4个步骤的策略,以帮助企业在从基础数据中心向战略数据中心的演进过程中优先考虑IT开发。

第1步:优化数据中心

优化基础数据中心是为新项目释放资本支出和员工精力的第一步,其中包括改进数据中心本身。这涉及通过虚拟化整合服务器(请记住,存储、网络设施和其他资产也可以虚拟化)。

在此阶段,经验丰富的数据中心解决方案提供商可以提供宝贵的帮助,包括审核现有基础设施,并简化必要的升级和迁移。

第2步:设计的灵活性

从整合阶段迁移到高级数据中心阶段,就是设计数据中心的灵活性和扩展能力,以满足业务需求。

升级可以释放企业的业务次级以利用新的机会,同时确保在业务发展缓慢时不会浪费开支。再次强调,引入经验丰富的数据中心顾问肯定会带来好处,该顾问可以帮助企业完成所需的特定于业务的工具和升级。

第3步:部署自动化工具

不言而喻,监控可用性和性能水平以及人工调整计算资源对于企业的员工资源提出了很高的要求。这只是一个对企业员工来说很耗时的强制要求,让他们远离项目和开发工作。

幸运的是,这是一个非常简单的修复:只需部署一些自动化和编排工具来实现这个耗时的功能。这样做最终将使企业达到战略数据中心阶段。

第4步:调整业务目标

一旦企业采用上述三个步骤,将最终获得一个永远在线运行的战略数据中心,使企业能够近乎实时地扩展或缩小以满足业务需求。此时,企业的重点应放在确保业务需求与业务的整体战略方向紧密交织在一起。

在此不要夸大其辞:IBM公司的模型只是众多可以用来以正确的方式扩展和发展业务的模型之一。无论如何,任何一个明智的IT决策者都可能已经意识到了这一点。

而在这里提出的观点是,企业的数据中心发展完全掌握在自己手中,不应该被忽视。所做的就是为想要摆脱数据中心发展的黑暗时代并带来未来光明前景的企业提供一个无限有用的框架。所以要记住,停滞意味着灭亡!

3.数据中心的组成及建设原则

1。数据中心的组成
数据中心主要由基础设施、硬件设施、基础软件、管理支撑软件构成,各部分的主要组成如下:

  1. 基础设施:机房、装修、供电(强电和UPS) 、散热、布线、安防等设施。
  2. 硬件设施:机柜、服务器、网络设备、网络安全设备、存储设备、灾备设备等。
  3. 基础软件:操作系统、数据库软件、防病毒软件等。
  4. 管理支撑软件:机房管理软件、集群管理软件、云平台软件、虚拟化软件等。
  1. 数据中心建设原则
    数据中心核心建设内容包括:数据资源建设,数据服务系统建设,以及与之相关的技术标准和规范、网络及软硬件基础平台、信息安全系统等方面的建设。数据中心的建设应坚持如下原则。
    (1) 规范化
    为了保证数据共享互换,数据中心必须遵循统一的数据标准及相关的规范,优先采用国家、行业标准,同时积极采用国际标准,并结合实际应用制定相关标准,使科学数据信息便于各类用户使用。
    (2) 网络化
    数据中心宜采用互联网技术实现信息资源的共享与发布,成为基于互联网技术的网络化信息管理平台,以实现数据中心的网络化共享。
    (3) 安全性
    数据中心必须提供配套的数据系统安全和访问安全的相关技术措施,以保证数据中心的安全。
    (4) 实用性
    数据中心应最大限度地满足数据整合、数据管理与数据应用的需要,数据中心的系统应易于使用、界面友好、智能化。便于管理维护,应提供数据更新、数据备份、系统扩展等功能,同时具有与其他系统实现数据级共享、协同工作的能力,从而实现数据中心的最大化利用。
    (5) 可扩展性
    数据中心应充分考虑数据在不断变化增加的现实,同时也要考虑用户对数据共享与分发服务的需求、各行业业务发展对数据的需求,软硬件技术的发展等,在保证软硬件的升级更新不会给企业系统使用带来困难的前提下,不断提升数据中心的服务能力,从而保证数据中心具有长久的生命力。

4.云计算、大师据时代的数据中心发展趋势

(1) 规模化:大型数据中心更受市场青睐
,过年来,数据中心的建设规模不断扩大,许多超大型数据中心规划建设的规模甚至达数十万平方米。从市场接受度来无,数据中心行业正在进行洗牌,用户更愿意选择技术十
分雄厚、服务体系上乘的数据中心服务提供商。未来的数据中心将朝看全球化、国际化、规模化发展。
(2) 虚拟化:传统数据中心将开展资源云端迁移
传统的数据中心之间,服务器、网络设备、存储设备、数据库资源等都是相互独立的,彼此之间毫无关联。虚拟化技术改变了不同数据中心间资源互不相关的状态,随看虚拟化技术时深入应用,服务器虚拟化已由理念走向实践,逐渐地向应用程序领域拓展延伸,未来将有更多的应用程序基于虚拟化技术向云端迁移。所以,传统的数据中心将进化为云数据中心。
(3) 绿色化:传统数据中心将向绿色数据中心转变
不所上涨的能源成本和不断增长的计算需求,使得数据中心的能耗问题引发越来越高的关注度。数据中心建设过程中落实节地、节水、节电、节材和环境保护的基本建设方针,“节能环保,绿色低碳”必将成为下一代数据中心建设的主题。
(4) 集中化:传统数据中心将步入整合缩减阶段
分散办公的现状,带来了相互分散的应用系统布局。然而,现实存在对分支机构数据进集中处理的需求,因此,数据中心集中化成为一种必需。未来,随着技术的发展,数据中心整合集中化之势将愈加明显。
(5) 低成本:数据的价值逐渐凸显并且成本更低
虚拟化技术提高了资源的利用率,简化了数据中心的管理维度并有效节省了维护成本,成本降低的同时还能实现数据的价值最大化。

二、数据中心的基本单元——服务器

一个完整的数据中心包括支撑系统、计算机设务和信自服务这三个逻辑部分。支持系统主要是由电力设备、环境调节设备和监控设备组成,计管机设务包括服务器、存储设备相险结 改备,这些设备运行着上层的信息服务。从中可以看到,服务婴是数据中心服务的主安较件,同时与存储设备和网络设备相连,是数据中心的基本单元。

服务器(Server) 是指运行操作系统、数据库系统 Weh系统等软件系统,为网络上具有终端提供服务的硬件设备。即从广义上讲,服务罢县指网终中能对其他机器提供果些服务时计异机系统(如果一个PC 对外提供FTP 服务,也可以称之为服务器); 从狭义上研,服务器是专指某些高性能计算机,能通过网络对外提供服务、服务器通常都会采购专用的CPU相比,服务器有更高标准的主板和电源、以及专用的带纠错功能的高速内存(ECC 内存)和专用的硬盘(SAS硬盘、FC硬盘、SSD硬盘)。目前常见的服务器从基础构架上分为使用RISC (精简指令集)CPU的专用服务器和使用CISC (复杂指令集)CPU 的通用服务器。专用服务器主要用于对浮点运算性能较的应用场景,如中型机和小型机,也就是大家经常听说的高性能机。目前大多数数据中心通常采用的是通用服务器,如Intel公司的Xeon系列和AMD公司的Opteron与PC 机的CPU 都使用了 X86 架构,使用的都是 CISC 指令集,所以这类服务器通常被称为系列服务器。由于Xeon 和 Opteron与PC机的CPU都使用了X86架构,使用的都是CISC指令集,所以这类服务器通常被称为X86服务器。

X86 服务器可从机箱结构和外形、结点密度、支持的 CPU 数量和用途进行分类。

  1. 按机箱结构和外形分类:塔式服务器、机架式服务器;
  2. 按结点密度分类:单结点服务器、多结点(高密度)服务器;
  3. 按支持的CPU数量分类:单路服务器、双路服务器、4路服务器、8路服务器、16路
  4. 按功能分类:文件服务器、数据库服务器、邮件服务器、Web服务器、DNS服务
    服务器、32路服务器。
    器等。
    下面分别对这四种分类方式进行详细的讲解。
  1. 按机箱结构和外形分类
    (1) 塔式服务器
    塔式服务器的外形如图4-7 所示,塔式服务器机箱从体积上可以分为全塔式、中塔式、mini 塔式,塔式服务器占用的体积比较大,通常数据中心或云计算中心不采用塔式服务器。
    (2) 机架式服务器
    对于建设费用高昂的数据中心来说,数据中心空间利用率非常重要,塔式服务器的空间利用率较低,不适合用于数据中心,于是机架式服务器应运而生,机架式服务器采用了与交换机一样的长方体结构,美国电子工业协会(U. S. EnergyInformation Administration, EIA) 制定了统一的标准尺寸,标宽度(两端上架孔距固定470mm, 标准深度为650mm, 在高度方面,EIA推出了一个专用计量单位“U" (Unit 的缩略
    语)。1U=1. 75 英寸=44. 5mm.机架式服务器在高度上分为1U/2U/3U等。后面要讲到的刀片式服务器(刀片机)也属于机架式服务器。
  2. 按结点密度分类
    结点密度是单台服务器内置的独立系统单元数目,即单台服务器内置的主板数目。内置一个系统单元的服务器称为单结点服务器,单结点服务器是平时最常见的服务器类型;内置两个系统单元的服务器称为双结点服务器,通常被称为“双子星”服务器。以此类推还有“四子星”“八子星”等,结点密度一般为偶数。单台服务器的密度在四结点及以上的,又被称作高密度服务器。刀片机也是高密度服务器的一种。
  3. 按支持的CPU数量分类
    服务器所指的“单路”或者“双路”是指单台服务器的主板上所能支持安装 CPU的数
    量,一般为偶数个CPU协同工作,以得到更高的单机(单元)计算性能。只支持一颗CPU的服务器称为单路服务器:支持两颗CPU的服务器称为双路服务器;支持四颗CPU的服务器称为四路服务器:双路及以上的服务器统称为多路服务器。
  4. 按功能分类
    入」让服务器提供各种不同的服务,实现各种不同的功能,因此服务器按功能可以划分为文件服务器、数据库服务器、邮件服务器、Web 服务器、DNS服务器等。
  1. 文件服务器是以文件数据共享为目标。它的特点是将供多台计算机共享的文件存放于 合计算机中,这台计算机就被称为文件服务器,如 Windows Server 2003 文件服务器。
  2. 数据库服务器是安装了不同的数据库软件,提供不同的数据库服务的服务器被称为数据库服务器,如Oracle 数据库服务器、MySOL 数据库服务器、SQL Server 数据库服务器等。
  3. 邮件服务器对企业用户来说也很重要。提供邮件功能的服务器被称为邮件服务器。它们通常安装的软件包括 WebEasyMail、Sendmail、 Postfix、Qmail、Exchange等。
  4. Web服务器是网络服务器的一种,其用途是提供Web 网页服务,如基于 Apache、IIS等系统搭建的服务器。
  5. DNS服务器,提供域名服务的服务器称为DNS服务器。通过DNS服务器,可以实现域名服务的查询、应答。

三、数据中心选址

数据中心的选址是数据中心建设的早期重要工作,数据中心的使用年限往往会超过20 年、数据中心的建设、运行、维护涉及对于地质条件、气候环境、电力供给、网络带宽、人力资源等条件,需要综合考虑以下诸多因素。
地质环境:大型数据中心在选址的时候一般倾向选择建设在地质条件比较稳定,地震、沉降等自然灾害较少的地区,减少自然灾害等不可抗力对数据中心运行的影响概率。

气候条件:气候条件对于数据中心的建设、运行成本有直接影响,建设在寒冷地区的数据中心与建设在炎热地区的数据中心相比,用于制冷的电力成本大幅降低,同时其制冷系统的建设级别和造价相对较低。Google 在比利时、芬兰等寒冷地区建设了自己的数据中心,尤其是设在比利时的数据中心基本全年性地采用无须制冷剂的自由冷却方式对数据中心进行降温,制冷系统造价和电力成本非常低。

电力供给:数据中心是电力消耗的大户,在美国,数据中心的能耗已经占美国全国用电量的1. 5%; 早在2012年全球数据中心的总能耗就已超过300亿瓦,相当于30座核电站的发电量;单个数据中心的能耗已经上升到千万瓦的级别。所以数据中心在选址时必须要考虑当地的电力供应能力和电力成本。

网络带宽:网络带宽是数据中心为用户提供服务的核心资源,网络带宽直接影响用户的请求响应及时性,是数据中心选址考虑的重要因素,需要选择网络带宽条件较好的骨干网结点城市。

水源条件:目前先进的数据中心的冷却系统经常采用水冷系统进行蒸发冷却,用水量巨大,如微软公司的圣安东尼奥数据中心每年需要消耗38万吨水用于制冷,所以数据中心选址时需要考虑当地的水源供给情况。

人力资源:数据中心在选址时需要选择在能够提供必要的数据中心的建设、维护、运营等人力的地区。

以Google的数据中心选址为例,Google一般会选择在电力成本低廉、绿色能源丰富、水资源丰富、地域开阔、与其他数据中心距离合理的地方来新建数据中心。Google 数据中心的服务器数量占全球服务器总量的3%, 但只消耗了全球数据中心1%的电力,可再生能源的使用量占其总电力消耗的近30%, 这得益于 Google 的数据中心节能环保技术。Google 将数据中心的冷通道温度保持在27℃, 并使用外部空气冷却其数据中心,而不是使用耗能的冷却系统。Google 的服务器都是由其自行设计,减少不需要的组件,减少不必要的部件能耗,减少风扇数量,从而提高了能源使用效率。

四、数据中心的能耗

数据中心级:从较为宏观的数据中心级别来看,制冷系统所消耗的能源占数据中心总体能耗的比重较大,制冷系统的规划和性能对于数据中心整体能耗的影响很大。

结点级:结点级的能耗控制主要在于根据结点的负载状况动态调整处于工作状态的结点数量。

器件级:CPU、内存、硬盘等器件的能耗主要通过调整工作电压和频率的方式来控制。

1.数据中心能耗评估

在当前企业的数据中心,大约40%的总能耗是用于其IT相关设备冷却的。因此,冷却成本可以说是大型数据中心总电费的主要贡献因素之一。在本文中,我们将与广大读者朋友们共同研究影响数据中心冷却能耗的两大关键性的因素,即数据中心内部的气流管理及其选址。文章中,介绍了一种具有垂直冷却气流的独特机架布局,同时还将与您一起分析两种冷却系统,计算机房空调(CRAC)冷却系统和空气侧节能器(ASE)。基于这两种不同的冷却系统,作者在全球范围内选择了位于四处不同城市选址地理位置的数据中心进行了对比。文中还采用了包括诸如电力使用效率(PUE)、制冷系数(COP,Coefficient Of Performance) 和冷却器采用运行小时数在内的许多种能效指标来对数据中心的冷却进行了深入的探索。通过分析冷却器采用运行时长和节能器的采用运行时长的比较,得出两种不同的冷却系统所提供的冷却功率成果。结果表明,在不同的气候因素、能源价格和冷却技术条件下,冷却效率和运行成本差异很大。而有鉴于气候条件是影响空气侧节能器的主要因素,因此在寒冷气候下使用空气侧节能器可以大大降低数据中心的能耗和运行成本。

全球范围内,数据中心业界的能耗急剧增加,目前约占到全球总耗电量的1.3%。同时,在过去几十年中,数据中心行业通过在数据中心基础设施管理(DCIM)中采用更有效的技术和实践方案也取得了相当显著的进展。2016年,全球数据中心行业市场已经达到1520亿美元,同时整个市场将继续保持约5%的年增长。当前有一种趋势是建设容量超过40兆瓦的大型数据中心。能源效率显然是数据中心的一个重要问题,可以最大限度地减少对环境的影响,降低能耗成本,并优化数据中心的运营绩效。

现代数据中心有一个大的操作环境空间,内有许多排机架,里面装满了大量的服务器和其他用于处理、存储和传输数字信息的IT设备。这些成千上万的服务器和其他IT设备将会产生大量的散热。为了保持数据中心内服务器和其他IT设备的可靠运行,保持适当的操作环境温度和湿度条件非常重要。下图1显示了针对10处数据中心进行随机调查的结果。图中显示了具有代表性的功耗分布和变化情况,并展示了冷却数据中心IT设备所消耗的总能量的30%到55%之间的差异。平均而言,冷却和通风系统的能耗占到数据中心总能耗的约40%。因此,在构建数据中心之前,企业必须慎重考虑如何降低功耗,电力成本,提高冷却效率,并最大化可用性。

现代数据中心有一个大的操作环境空间,内有许多排机架,里面装满了大量的服务器和其他用于处理、存储和传输数字信息的IT设备。通常,服务器和其他IT设备被安置在机架中。在具有热通道/冷通道的传统数据中心中,由冷却系统产生的冷空气通过室内地板下方的增压室供应。在机架的两侧,在地板上安装了穿孔的气流板,以便让冷空气进入。理想情况下,冷空气将从穿孔的气流板向上流动,从服务器的一侧进入服务器之间的微小空间,然后从另一侧流出。因此,来自一侧的冷空气形成冷通道,另一侧形成一个暖通道,以便将冷热通道彼此隔离,并消除了从一排机架排出的热空气进入另一排机架的入口。该方法奏效的原因就在于冷空气在服务器之间流动时会被加热。但这种布置有几个缺点,主要是因为不能很好地控制气流。特别是,冷空气和暖空气将在机架的上侧混合,因为冷空气比在服务器之间流动更容易向上流动,这会使得冷却效率降低。由于水平流过服务器并且空气流过穿孔板的布置,带来了更高的压降,这导致了很大的空气流动阻力,并限制了冷却空气和服务器之间的热传递。因此,会使得冷却系统的能量消耗更高。

为解决上述这些问题,数据中心业界转向采用在机架内垂直安置服务器的方案,而再不是采用传统的水平放置服务器的方案,这使得服务器之间的空间很小,所有服务器都垂直放置,服务器之间的空间优化被限制到小于30毫米。该限制考虑了数据中心空间利用率以及用于传热的冷却空气通道。这种服务器机架可以放置在封闭的机柜中或开放空间中。通过垂直气流管理很好地利用自然对流。服务器机架也可以分为两个部分,以避免机架底部服务器和机架顶部服务器之间的温差很大。如图2(右)所示,冷却空气不是通过机架之间的通道供气,而是直接从机架底部供应冷却空气。因此避免了冷和热流混合。不再需要穿孔地板瓷砖,这导致了冷却空气流动的阻力降低,风扇功耗降低。由于空气密度差异导致的自然重力,通过向上流动的冷却空气和增加通风来增强热传递。为了实现分布式冷却控制,提供了多个空气供应管并将其放置在数据中心的地板下方,包括每个管道中的入口可调节开口。

(1)数据中心选址的影响

1.CRAC和空气侧节能器案例研究方案

典型的数据中心冷却解决方案是通过使用具有空气处理单元(AHU)、冷却器和冷却塔等设备的计算机房空调(CRAC)完成的,这些设备通过地板下方的压力通风系统向每台机架供应冷空气,并再循环将热空气排出到冷却设备。当外部温度低于数据中心的返回空气的设定点温度时,空气侧节能器将直接使用来自外部环境的低温空气来冷却内部服务器。而当室外温度不适合冷却服务器的情况下,则使用计算机房空气处理器(CRAH)。由于空气侧节能器不包括湿度控制,因此需要借助专用的加湿系统来稳定相对湿度(RH)的波动。空气侧节能器可以提供更长的节能时间,更节能,并降低数据中心的冷却负荷和冷却成本。

这项工作包括三种方案:基准方案;COP为2.1的空气侧节能器方案;COP为4.0的空气侧节能器方案。一处位于美国的具有传统CRAC冷却方案的数据中心案例被定义为基准的冷却解决方案。该数据中心通风布局使用传统的热通道/冷通道布置。而在采用空气侧节能器的情况下,COP被分别假定为2.1和4.0两种情况。由于外部空气温度通常高于CRAC冷却空气温度,因此基准CRAC风扇的功率为232 kW,ASE风扇功率为410 kW。为了保持足够的热传递,ASE需要更多的风扇功率。为此,我们选择了四处气候条件差异很大的城市作为数据中心选址进行比较。

2.冷冻机小时,节能器小时和湿度的分析

每当需要机械冷却以维持最大允许的IT进气温度时,就需要记录冷却器采用的时长。收集节能器的采用时长以确定外部空气条件满足所需数据中心条件的小时数。冷却器采用的时长和节能器采用的时长都适用于两个区域,即数据中心完全由冷却器冷却的区域和过渡区域,其中一些冷却负载由免费的自然冷却系统满足,其余部分由冷却器满足。

对于基准情况,冷却器运行小时数等于数据中心年度运行小时数,因为该运行实际上可以不利用室外气候条件,因此意味着数据中心全年都由冷却器系统实施冷却。根据ASHRAE热环境推荐的数据中心范围和四个城市10年气候统计温度和湿度数据的分析,我们计算了ASE场景设计下每处数据中心的节能器使用小时数和冷却器使用小时数(如下表1和表2所示)。其中瑞典的吕勒奥具有零冷却器运行时长的特殊优势。这意味着在该地区的数据中心不需要采用机械冷却设备。而美国西雅图是空气侧节能器最受欢迎的城市, 因为那里所需要的冷却器运行时长较短(仅62小时)。

湿度控制是数据中心运营中的另一大问题。湿度应根据ASHRAE所推荐的最严格的范围进行控制,即5.5°C露点温度至60%相对湿度和15°C露点温度。基准情况使用水冷式冷却机组通过热交换器冷却水,从而在数据中心保持更恒定的湿度水平。空气侧节能器的主要缺点是缺乏湿度控制。用于加湿的额外能量可以抵消ASE的一部分节能,并且在ASE效益评估中必须考虑额外的加湿成本。

(2)三种冷却方案的能耗比较

如下图3和图4所示,是根据冷却器的运行小时数和PUE所计算得出的三种不同的冷却设计方案各自的冷却功耗和年度运行成本。其中已考虑了四个城市不同的能源价格。与纽约和西雅图的每千瓦时0.08美元的能源价格相比,休斯顿和吕勒奥的每千瓦时0.05美元的低能源价格显示出了优势。在基准情况下,总设施能耗与服务器能耗的性能比为1.55,这对于所有四处数据中心都是相同的。采用空气侧节能器情况下的PUE比率低于基准情况,这表明空气侧节能器在大多数情况下可以降低能耗。此外,PUE的微小变化则能够带来非常显著的节能效果。由于假设基准情景中的冷却系统操作与气候条件无关,因此所有四处数据中心的冷却功率消耗相同,这相当于全年冷却系统运行所使用的电功率。假设冷却能耗与冷却机和节能器采用时长成比例相关。冷却的总耗电量使用冷却的全功率负载和每年8760小时计算。运营中未考虑冷却设备折旧和IT停机时间。图4(左)中的结果表明,空气侧节能比基准情景中消耗的电能少。由于气候寒冷,吕勒奥的空气侧节能提供了最大的节能效果,而休斯顿的空气侧节能所实现的能源节约最少。上表2中还显示,吕勒奥的冷却器采用时长为零,而空气侧节能器的采用时间最长,而休斯顿的冷却器采用时长最长,空气侧节能器的采用时间最短。因此,四处数据中心的冷却能耗与不同的气候条件有关。ASE系统利用凉爽的室外空气来调节数据中心的室内操作运营空间,从而降低冷却成本。在三种冷却设计方案中,空气侧节能器与基准情况相比可以节省能源;具有较高COP和较低PUE的ASE 2场景比ASE 1节省了更多的能量。与基准情况相比,ASE可以节省高达35%的电力成本。

但是,有许多因素会影响数据中心的运营成本,特别是数据中心所在当地的气候条件、当地的电价和运营政策。在吕勒奥,凉爽的气候可能有助于ASE系统在一年中的所有时间顺利使用。此外,由于吕勒奥享有最低的能源价格和最低的工业税率,因此该城市显然是运营数据中心的最具冷却效率的选址地。由于ASE的使用带来了与湿度相关的水分问题,因此加湿成本也是不容忽视的问题之一。尽管加湿成本是一笔巨大的费用,但瑞典吕勒奥的ASE方案的结果表明,加湿成本是总冷却节能的27%。

2.数据中心的主要节能措施

随着新一代数据中心建设浪潮的兴起,数据中心机房里服务器的密度越来越高、数量越来越大,电力消耗和散热能力正在成为数据中心重点关注的问题,数据中心所消耗的电力以及数据中心各种设备产生的热量的电力消耗都达到了越来越高的水平。电力的巨大消耗成本严峻问题,巨额的电力成本会让数据中心运营的整体成本上升,并且,相对而言在一段时期内任何一个数据中心的电力供给都是有限的,在日益倡导绿色环保的低碳时代,降低数据中心的能耗极为必要。

在保证数据中心基础设施稳定运行的同时又能显著减少电力消耗与电力成本的方法有以下这些。

  1. 服务器虚拟化
    服务器的电力消耗占整个数据中心电力消耗的一半左右,虚拟化技术让一台物理服务器可以运行多个虚拟主机,这让单独服务器的计算资源可以被多个环境共享,通过调整服务器的负载,可以让计算资源得到充分利用。降低二氧化碳排放量,降低管理和运营成本。服务器虚拟化技术降低成本的效果是非常明显的,平均来说,以一个月为周期,和应用多台服务器的非虚拟化站点相比,应用虚拟化技术的服务器站点在数据流量、能耗、受攻击威胁和总体运营成本上只有前者的10%.
  2. 采用现代化冷却系统供热通风与空气调节系统(Heating Ventilation and Air Conditioning, HVAC) 系统通常是数据中心第二大耗电系统,据Data Center Users Group 估计,HVAC 系统消耗的电能占级诉新能源消耗的37%.面对大规模的数据中心的冷却任务,多数传统的冷却系统无法最优化处理,冷却效率非常低。采用现代化、模块化和更高效的组件替代一些传统空调设备进行冷动处理可以节约大量电能。

在气候条件允许的情况下,采用类似用外部冷空气替代电力系统来进行冷却的方式,将可以有效节约电能。

  1. 重组数据中心
    数据中心的数量和规模近些年来增长迅速,而很多数据中心中的服务器则被随处安装,非常缺乏计划性。这导致了数据中心的发热与散热不均,超载的IT环境也很难保证冷却系统的最优化运行。对数据中心服务器的物理位置进行重组,例如配置冷、热通道,都可以显著减少冷却系统的负荷。

  2. 升级数据存储器
    数据存储系统也是数据中心电能消耗大的主要原因之一。更新存储系统也可以显著减少数据中心的电力消耗。一般来说,新磁盘比旧磁盘能效更高,而一个高容量磁盘则比两个相同容量的低容量磁盘消耗能源少。存储虚拟化也可以通过提高存储器的利用率、避免提供过量存储空间来提高能效。对于一些应用软件来说,可用 SATA 磁盘替代光纤驱动,因为后者每Terabyte (太字节,计算机存储容量单位,也常用TB 来表示,1TB=1024GB=2*0字节)消耗的电能是前者的两倍。

  3. 升级变压器
    数据中心的交流电供给需要采用变压器。大量电能就在这一环节损失了。很多廉价的变压器的效率仅为80%, 但通过对变压器升级,其利用率可达90%甚至更多,这样,数据中心的电力损耗则可明显减少。

  4. 将服务器芯片更新为低电力消耗产品
    如果服务器硬件达到了使用寿命,可采用低功耗的服务器芯片(CPU) 和其他组件(如前面所提到的磁盘驱动器和变压器)进行替换以降低能耗。

  5. 开展软件审核
    绘制一份服务器运行的最新图表,注明正在运行的服务器及其上运行的软件,关闭空转的服务器以实现节省电能。

8.提高冷却温度
数据中心硬件进行更新时,有时冷却温度超出了指定范围。提高数据中心的冷却温度可以有效减少电力消耗。

附:
作为数据中心的管理者其实还可以找寻一些省钱的节能方法,本文就来说一说那些零成本投入的数据中心节能方法。

数据中心属于能耗密集型产业,从网站到网上银行,现代数据中心几乎运行着一切信息应用,因而其对电力的消耗增长显著,大规模数据中心更是能耗巨大,数据中心能耗成本往往占据数据中心总体运营成本的50%以上,让数据中心的运营单位不堪负重。现在的数据中心已经开始意识到能耗的问题,但如何解决却颇为头痛,毕竟诸多绿色厂商提供的节能方法都要花费大量的金钱,这样的投入往往让数据中心的管理者望而却步,同时这些节能的方法所能带来的节能效果也总不能让数据中心满意。一方面是数据中心急切需要降低运营能耗;另一方面是绿色厂商带来的节能方法花费太高,两个方面供需存在矛盾。作为数据中心的管理者其实还可以找寻一些省钱的节能方法,本文就来说一说那些零成本投入的数据中心节能方法。

调高数据中心温度

为保证数据中心里设备的良好运行,数据中心内全年保持恒温恒湿,温度维持在20℃24℃。国际标准要求平均温度是,冬季在18℃22℃,夏季在21℃~25℃,温度的变化率下于5℃/h.温度对于数据中心非常重要,按照通用的评估方法,温度每提高10℃,可靠性要下降25%.数据中心这样常年保持在较低的温度虽然可以最大程度保障无局部热点,但是却造成了能源的极大浪费。现在的数据中心设备都会做高低温实验,工作温度上限可达45℃,所以适当地提升数据中心的运行温度,不仅可以节约能源,而且并不会给增加设备的故障率。目前,在数据中心行业提升数据中心的运行温度已经成为了普遍共识,有些数据中心专门采购耐温的设备,降低数据中心的能源消耗。综合来看,适当提升数据中心运行温度不用多花一分钱,而且利大于弊。

评估数据中心设备运行情况

数据中心里的设备多种多样,其中不乏有老旧设备,过老的服务器其工作效率只有新服务器的1/3,但是能耗却能达到新服务器的3倍,所以要及时淘汰掉这些老旧设备,将业务搬移到其它服务器上,虽然增加了其它服务器的一些负担,但整体能耗却降低了。还有不少的数据中心,存在有大量的闲置服务器,可能周期性的运行一些应用,但长时间处于闲置,这就要将其关闭或者重新分配工作任务,要周期性的对数据中心设备的运行负载情况进行评估,有不合理的、偷闲的设备就要及时调整。评估的标准是这些设备的CPU是否运行在正常的水平,有的设备长期CPU利用率只有20%,利用率过低,应该及时调整,一般服务器的CPU维持在50%左右就可以,可以保证正常业务的运行。

虚拟化技术的应用

在数据中心通过部署虚拟化可以提升设备的使用效率,一般一个服务器只能跑一个业务或者几个业务,通过虚拟化技术,将服务器虚拟成多台设备,这些设备都独立运行,提升了服务器的使用率,这样就可以减少数据中心同时运行的服务器数量,当需要增加新的业务时再开启一些服务器。一般的服务器运行功率都在400瓦左右,这样的服务器连续运行一天就会用掉十几度的电,虚拟化能在计划范围内针对低利用率或者高能耗对症下药。

及时关闭不必要的用电设备

大多数的数据中心都是通过远程进行管理,进入到数据中心设备区的情况比较少,而我们进入数据中心机房时经常会发现,灯火通明,而这些机房几天也可能不会进来一个人。大量的照明灯不仅造成能源的浪费,而且会增加机房的温度。所以出进入机房时应该及时将照明灯关闭,这样也可能为数据中心节省不少的费用。现在有些声控系统可以在人进入到机房中时,自动开启照明设备,在人离开的时候自动关闭照明设备,这种方式更加智能化。除了照明设备,数据中心里的设备外接显示器,用电跳线架,如果没有承载业务都应该及时关闭。有的数据中心新购设备往往在机房里空载运行数月,这大大造成了浪费,应该减少测试时间,及时更新,带新业务运行。

充分利用自然散热

北方的冬天零下20~30℃,而数据中心里却要保持在22℃,巨大的温差让空调系统长期高负荷运行,可以适当地开启门窗,扩大通风,通过自然冷却数据中心温度,通过对出入气流的隔离引导,可以充分利用外界的冷空气将数据中心内部产生的热量带走。数据中心的空调耗电是非常大的,其每停转一分钟都可以节省几度电能。已经有不少国外企业将数据中心建在了天气寒冷的冰岛,或是离海水近的地方,都是希望通过自然将温。有的数据中心甚至声称可以做到零能耗散热,这的确是一个降耗的办法。将正在运行的数据中心都搬到温度适宜的地方不太可能,但可以通过周期性地开启门窗,将外界的冷空气引入,通过自然降温。

人为因素

数据中心运维的人员应该有这样节能的意识,在工作的点点滴滴中就可以节能。以上介绍的方法都是一些宏观的方法,其实节能需要渗透到工作的方方面面。离开工作位随手关闭电脑,减少进入机房的次数(这样会产生多余的热量),业务更新要及时调整,尽量让现有运行的设备高负荷工作,每一次业务调整都需要对整体的能耗进行评估,让节能的思想深入人心。一旦人有了这种节能的意识,他会关注到自己工作的诸多细节,而改善这些细节往往会给数据中心带来意想不到的效果。每个数据中心都有自己的特点,只有这些掌握工作细节运维的人员主动去关注节能,才能真正为数据中心带来节能。

Bingdata优网助帮汇聚多平台采集的海量数据,通过大数据技术的分析及预测能力为企业提供智能化的数据分析、运营优化、投放决策、精准营销、竞品分析等整合营销服务。

北京优网助帮信息技术有限公司(简称优网助帮)是以大数据为基础,并智能应用于整合营销的大数据公司,隶属于亨通集团。Bingdata是其旗下品牌。优网助帮团队主要来自阿里、腾讯、百度、金山、搜狐及移动、电信、联通、华为、爱立信等著名企业的技术大咖,兼有互联网与通信运营商两种基因,为大数据的算法分析提供强大的技术支撑。

你可能感兴趣的:(大数据,数据库,人工智能,计算机网络,软件架构)