数据中心的历史

.数据中心历史

现在可能大家认为放了一堆电脑或者是服务器组成的地方就是数据中心

其实现在数据中心是一定的评级标准的,只有到达了一定的规模和数量才能被称之为数据中心

数据中心(DC-DataCenter)通常是指在一个物理空间内实现对数据信息的集中处理,存储,传输,交换,管理,一般含有计算机设备,服务器设备,网络设备,通信设备,存储设备等关键设备。数据中心的基础设施是指为确保数据中心的关键设备和装置能安全、稳定和可靠运行而设计配置的基础工程,也称之为机房,数据中心机房工程的建设不仅要为数据中心中的系统设备运营管理和数据信息安全提供保障环境,为工作人员创造健康舒适的工作环境。

国内数据中心机房等级划分:

美国标准《数据中心的通信基础设施标准》等级划分:

数据中心的雏形——ENIAC(衣尼爱克)是用水晶二极管的

ENIAC,全称为Electronic Numerical Integrator And Computer,即电子数字积分计算机。ENIAC是继ABC(阿塔纳索夫-贝瑞计算机)之后的第二台电子计算机和第一台通用计算机。

曾有媒体误传ENIAC是第一台计算机,实际上,真正的第一台电子计算机是ABC计算机。事实上ABC计算机不可编程,且非图灵完全,只能进行线性方程组的计算。它的价值是确定了一些现代计算机设计思想,如采用二进制、可重用的存储器等。所以说ENIAC是第一台通用计算机。

ENIAC的诞生,让当时的科学家们享受了计算的畅快,但却必须痛苦地使用它。不仅因为它贵,更因为电子管实在太耗电,零件的寿命也太短,据说ENIAC每次一开机,整个费城西区的电灯都为之黯然失色。同时接近18000个电子管,几乎每15分钟就可能烧掉一个,但操作人员可能要花15分钟以上的时间才能找出坏掉的管子,使用上极不方便。曾有人调侃道:“只要那部机器可以连续运转五天,而没有一只真空管烧掉,发明人就要额手称庆了”。

因此在晶体管技术投入实用后,计算机的计算元件也迅速的电子管向晶体管进化。

 

数据中心虚拟化技术商业化——Tradic

所以在1954年,美国贝尔实验室研制成功第一台使用晶体管线路的计算机,取名“催迪克”(TRADIC),装有800个晶体管。而计算机的体积,也由ENIAC的房间般大小,缩小为衣橱般体积。晶体管快速的开关速度和结构的简化以及在催迪克上引入的浮点运算,让其速度有了极大的提高。

晶体管的计算机比二极管的计算机的主要好处在于:

1、与电子管计算机相比,晶体管计算机具有体积小,重量轻,使用寿命更长,效率更高,发热少,耗能低等优点。

2、晶体管计算机的计算能力精确度更高,数据的绝对值能够达到2的几十次方到几百次方,大大的提高了数据分析速度,是其他计算工具不能实现的。

3、晶体管计算机的产生带动了相关计算机小部件产品的广泛应用,为计算机时代的发展带来了质的飞越

但是也有其缺点在于:

1、晶体管计算机产生的辐射对人体的循环系统、免疫、生殖和代谢功能,严重的还会诱发癌症、并会加速人体的癌细胞增殖。这不单单是晶体管计算机的缺点,也是所有计算机产品的缺点。

2、计算机对人们的视觉系统有不良影响,由于眼睛属于人体对电磁辐射的敏感器官,过高的电磁辐射污染还会对视觉系统造成影响。主要表现为视力下降,引起白内障等。而晶体管计算机与集成电路计算机相比,其辐射强度更强。

虚拟化已经在60,70年代有了雏形。

虚拟化,云计算这里可以提及一下。

云计算——服务层面。只做(控制面)资源的分配和管理,自己不需要干活,做资源的调度,做了一个大资源池化,让租户之间隔离(就像农夫山泉,我们不生产水我们只是大自然的搬运工)

云是把资源池化,接管资源,资源管理调度但是不提供资源(用户是和云这一层接触)

云计算底层不仅可以放虚拟化,也可以放物理机(裸金属)有些应用只能用物理机比如oracle RAC

那我们为什么大部分选择底层用虚拟机呢,是利用虚拟机的弹性伸缩,负载均衡。

虚拟化——技术层面的。

云计算——资源化管理,调度:足球教练(类似于一个掌控大局的人,自己不需要上场去踢球,主要用来调兵遣将,根据对手的情况或者场上的情况去调用分配自己手下的资源——球员)

云计算的特点:

虚拟化技术——真正用来执行任务:足球运动员(主要是足球员在场上踢球)

虚拟化技术:是一种资源管理(优化)技术,将计算机的各种物理资源(CPU、内存以及磁盘空间、网络适配器等 I/O 设备)予以抽象、转换,然后呈现出来的一个可供分割并任意组合为一个或多个(虚拟)计算机的配置环境。

虚拟化技术打破了计算机内部实体结构间不可切割的障碍,使用户能够以比原本更好的配置方式来应用这些计算机硬件资源。而这些资源的虚拟形式将不受现有架设方式,地域或物理配置所限制。

C/S结构计算模型与互联网

C/S(Client/Server):客户端/服务端,C/S 架构是一种典型的两层架构,其客户端包含一个或多个在用户的电脑上运行的程序,而服务器端有两种,一种是数据库服务器端,客户端通过数据库连接访问服务器端的数据;另一种是Socket服务器端,服务器端的程序通过Socket与客户端的程序通信。客户端需要实现绝大多数的业务逻辑和界面展示。这种架构中,作为客户端的部分需要承受很大的压力,因为显示逻辑和事务处理都包含在其中,通过与数据库的交互(通常是SQL或存储过程的实现)来达到持久化数据,以此满足实际项目的需要。

B/S(Browser/Server):浏览器/服务器,浏览器也就是指的是web浏览器如微软的Internet Explorer、Firefox、Opera等,随着Internet技术的兴起,对C/S架构的改进,为了区别于传统的C/S 模式,特意称为B/S模式。在这种模式下,极少的逻辑是在前端(Browser)实现,主要事务逻辑在服务器端(Server)实现,和DB端构形成三层结构。这样就极大程度上减轻了客户端。

胖客户端(RC)

它将应用程序的处理过程分为两个部分:客户端部分client-side和服务器部分server-side。

客户端部分既要处理UI界面的解析显示,又要对大部分的业务逻辑进行处理操作,要求客户端机器要有很强的处理能力,减轻服务器端压力,服务器端只进行客户端访问控制,数据表单接收等操作。

由于客户端做了大部分的工作,他的逻辑体积越发庞大,越来越‘臃肿’,于是我们就成这样的客户端为胖客户端。

瘦客户端(TC)

顾名思义,与胖客户端相反,客户端专注于处理UI的数据展示,而不再将大量的逻辑处理放在客户端上,这样客户端只需要简单的单据数据校验逻辑和表单数据提交。

而大量的业务逻辑将在服务器端接收到相关的请求后,通过表单数据进行相应的逻辑处理,然后将结果打包成HTML返回给客户端解析。

这样,客户端的所包含的逻辑代码将会变得很少,相反服务器端的压力将必须经得住考验。

  b/s的优点:

    b/s的缺点:

    c/s的优点:

    c/s的缺点:

总结的来说就是:

   B/S 只需要有操作系统和浏览器就行,可以实现跨平台,客户端零维护,但是个性化能力低,响应速度较慢

   C/S响应速度快,安全性强,一般应用于局域网中,因为要针对不同的操作系统,需要针对性的开发,并且维护成本高

胖客户端

瘦客户端

不同的主体

胖客户端将应用程序的处理过程分为两部分:客户端部分用户桌面计算机复合体。

瘦客户端应用主要指B/S结构(浏览器/服务器模式)的web应用,这种模式统一了客户端,让核心的业务处理在服务端完成。你只需要在自己电脑或手机上安装一个浏览器,就可以通过web Server与数据库进行数据交互。

B/S实际上是C/S结构(客户端/服务端)的一种变体,是指C/S结构中的客户端程序,这种结构是将需要处理的业务合理地分配到客户端和服务器端,这样可以大大降低通信成本,但是升级维护相对困难。比如我们手机中安装的微信、qq、王者荣耀等应用程序就是C/S结构。

不同的原理

用户的所有操作都在本地计算机上,不进行网络传输。

通过一些协议和服务器通信,然后接入局域网,瘦客户机将其鼠标、键盘和其他输入传输到服务器进行处理,服务器将处理结果返回瘦客户机进行显示。

不同的特点

受网络用户欢迎,因为胖客户端可以定制,用户可以选择安装什么样的软件和配置什么样的特殊系统,独立于网络公司。

瘦客户端易于管理,易于避免安全风险,不需要任何维护和许可成本。

能耗问题就会随之出现

模块化数据中心

模块化数据中心(一体化模块化产品)含有机柜、配电柜、UPS、精密空调、动环监控系统、冷通道、电池柜等,由这些产品组成一个封闭空间。每个产品可以看成一个模块,就像搭积木一样组合起来就成了一个模块化数据中心,你可以根据自己的需求增添产品。

模块化数据中心其实就是把机房的所有功能集成到一个模块化一体化产品中,这个一体化产品可以看成一个机房,把这个产品布置在一个房间内就可以使用了,而房间不用做太多的装修。

为什么说模块化机房会应运而生呢?

1.高可靠性标准模块

可以根据客户需求与实际情况,可以在原本配置上提供多种布局设计方案,安全可靠,可以到达T3,T4的水平

2.快速部署,大大缩短建设周期

3.实现分期建设,易扩展性

在降低初期投资的基础上,实现了数据中心的按需部署,避免固定资产的闲置浪费,同时保证了大型数据中心的任意IT空间的基础设施配置达到最佳状态。

4.绿色节能

模块化数据中心实现IT设备按需供电与制冷,让供电和制冷系统的容量与负载需求更为匹配,从而提高了工作效率并减少过度配置。微模块电源转换率高达95%,由于采用标准化的接口和微模块架构,极大节省电能,达到系统节能。

5.智能管理,精细运维

模块化数据中心利用对微模块内部环境、动力设备等的实时监测,以及IT设备与基础设施的协同工作,实现动环+IT设备的精细化运维。智能管理系统能够提供可视化体验,帮助客户实现数据中心多层级、精细化能耗管理,通过多种报表精确定位能源额外损耗点,实现节能降耗。

同时帮助用户制定资产维护计划,实现主动预警,动态调整维护计划,按照当前实际情况输出优化方案,构建最佳资产管理功能等。

6.集装箱数据中心易搬迁

作为一种新型数据中心解决方案,它既满足传统数据中心对机房基础设施的需求,同时具备传统数据中心所不具备的户外放置特性,以及实现机房可搬迁特性。

云数据中心

在普通的数据架构的前提下去提供一种云化的思想。

在这里我们提到了Saas的一个概念,它其实是隶属于云计算的服务模式。

.数据中心基本组成模块

什么是数据中心?

数据中心包含很多设备/很多功能的中心,不仅仅有服务器,计算机操作系统等这些必要的组件,还有一些辅助必要组件的一些通信设备,安全设备,环境监控设备等这些安全上的设备的一种集合体。

数据中心(类似于一种解决方案)的模块化构成

L0 :盖楼:指土建、机房楼宇部分,说白了就是盖楼。

L1:基础设施:机房配套,指机房装修、供电、制冷消防等。

L2 :IT基础架构:机房基础设施层,包括服务器、存储、网络,以及一些虚拟化的台软件等。

L3:应用平台为主

L4:业务:各种服务。

我们主要关注的是L2-L4层的服务

数据中心是一个面向业务的基础架构,是支持公司业务运营和未来成长的核心保障,主要包括以下几方面:

安全的网络架构;可靠的支持设施(机房,发电机、UPS,空调等);整合的服务器/应用平台;集中的存储和备份;统一的系统管理平台;面向客户服务的运维管理组织和流程

数据中心基础设施发展

上面两个表是近年来数据中心基础设施市场规模统计:第一个表是世界范围内的数据中心基础设施市场规模的统计,2010年就180多亿美金,而且每年都在增长,即使是中间有过经济危机;第二个表是中国数据中心基础设施市场规模的统计,可以看出,中国市场发展非常快,比国际平均数据要高的多,这和我国经济发展速度想匹配,当然也和我国的数据中心建设相对起步较晚有关。

下面两个表是对未来数据中心基础设施市场规模的预测:同样,第一个表是世界范围的预测,第二个表是对中国市场的预测。我们可以看出,未来,中国的数据中心基础设施市场发展还是很快,市场前景非常好。

数据中心产业的发展不局限于机房面积的增加,重要的体现在产业向深度和广度的扩展。“数据中心”的定义,不再局限于场地基础设施,其内涵和外延越来越广,IT、网络、搬迁、运维都在逐步纳入到数据中心建设范畴内,下面我们将重点来讨论现代数据中心的发展和特点。

数据中心基础设施发展趋势

企业的发展——准确的说应该是其业务的发展,向IT系统及信息化建设提出不断的需求,它是数据中心发展的原动力。

反过来,数据中心的发展——各种功能、业务的实现,也促进了企业的进一步发展。同样,数据中心的发展对相关材料、技术提出新的要求;反过来,新的技术和材料的产生,使数据中心的新要求成为可能,满足数据中心发展的同时促进了企业的进步。

举例来说,某企业业务的扩展,使其数据中心规模越来越大,日常的运维管理越来越繁琐,越来越复杂,成本也越来越高,风险越来越大;数据中心的智能化管理需求提到了日程上来。数据中心智能化管理的需求,对相应的材料-比如数据的自动采集提出需求;对相应的数据库、应用处理程序和前端展示平台等技术提出需求。随着新材料、新技术的成熟,数据中心智能化管理的实现,在提升数据中心本身的同时,排除了企业发展的瓶颈,促进了企业业务的进一步发展。

由此可以得出企业业务发展、数据中心发展和新技术/新材料的发展,三者之间是相辅相成、互相限制又互相促进的;同时,企业业务的发展是数据中心发展的原动力,即需求决定了发展。

那么近年来,数据中心都有哪些变化呢?

1.就数据中心本身来说,那么它主要有如下几个变化:

数据中心服务由单一服务向多功能服务方向发展;以前的数据中心服务功能相对单一,比如以前的计算中心,主要为企业的生产提供支撑;现在的数据中心,服务功能更多更全面,不但支撑企业的生产,同样为企业管理、企业培训及企业日常活动等多方面提供支撑,甚至可以对外提供服务;

2.数据中心规模也越来越大

3.数据中心在企业中的地位也越来越重要(数据的安全性,可靠性这些会做一点私有云)

4.数据中心由单纯消费型向投资盈利型转变。

客户不再仅仅关注场地基础设施,越来越关注和基础设施相关的IT服务(服务器、存储、网络、安全、运维、容灾、搬迁等等,甚至是IT管理和业务流程),借助于云计算的服务将基础设施服务进行外租等。

 

未来的数据中心

未来的数据中心又会是什么样呢?

绿色数据中心关键评价指标

Power Usage Effectiveness的简写,是评价数据中心能源效率的指标(一般指的是电能使用效率),是数据中心消耗的所有能源与IT负载消耗的能源的比值。

PUE = 数据中心总能耗/IT设备能耗,其中数据中心总能耗包括IT设备能耗和制冷、配电等系统的能耗,其值大于1,越接近1表明非IT设备耗能越少,即能效水平越好。

理想PUE在1.6~2.0之间,甚至更低。PUE值并不是越低越好,改善散热设计是降低PUE的关键。

DCIE(Data Center Infrastructure Efficiency)数据中心基础架构效率

DCIE=IT设备能耗/数据中心总设备能耗*100%,DCiE是一个百分比值,数值越大越好

数据中心基础设施组成(L1层)

我们将从系统角度,介绍基础设施一般包括哪些系统和这些系统的组成。

我们都知道,数据中心场地基础设施是一个包括多个子系统的集成。这张图片是我们华为目前对数据中心L1层基础设施多系统的一个定义,可以看出,我们把基础设施分为8个系统。

还有内部装修、机柜系统、防雷/接地、消防系统、综合布线和集成管理等共8个系统。

数据中心建设,始终是一个场地工程项目,要满足某种功能,或满足用户某个需求,一定是要站在系统的角度上来考虑,单独的某个设备或某些设备的堆砌,是不能满足需求的,我们一定要考虑设备的搭配、衔接,设备相互的关系,配以相应的系统设计和安装,才能最终满足某种需求。

数据中心基础设施系统分类

由于数据中心的特殊性,业内通常划分为装饰装修、电气系统、空调系统、消防系统、弱电系统和管理系统

典型数据传统中心逻辑分区

统一的运维平台

核心网络:内部网络+外联单位网络+Internet网络+灾备中心网络

业务区:普通业务区+DMZ业务区

DMZ:隔离区,内外网防火墙之间的区域,主要做一个缓冲区,会放置一些公共服务器

用户从外网访问到的服务,可以放置在DMZ区域

内网可以单向访问到DMZ区域,外网也可以单向访问到DMZ区域

设置DMZ区域主要是为了安全考虑

存储区:存储业务的数据信息

典型数据中心网络架构

SDH(同步数字体系):是一种将复接,线路传输以及交换功能融合为一体,并由同一网关系统操作的综合信息传送给网络

可以实现网络的有效管理,实时业务监控,动态网络维护,不同厂商设备间的互通等多项功能,可以大大提高网络资源利用率,降低管理及维护费用,实现灵活可靠和高效的网络运行与维护。

SDH的出现是因为人们希望信息传输网络可以更加快速,经济,有效提供各种电路以及业务,其诞生解决了由于入户媒质的带宽限制而跟不上用户业务需求的一个发展,提高了传输网上大量带宽的利用率

VPN(虚拟专用网络),我们可以把其理解成虚拟出来的企业内部专线。可以通过特殊的加密的通讯协议连接在Internet上的位于不同地方的两个或多个企业内部网之间建立一条专有的通讯线路。就好比是架设了一条专线一样,但是它不需要真正的铺设光缆之类的物理线路。

具体流程:

① 流量经由核心层的三层网关选路转发往核心交换机

② 经由核心转发往 SDN 服务器分区中的的网关交换机

③ 网关交换机查找路由转发往防火墙

④ 防火墙根据路由转发至统一运维护理管理业务区

⑤ 最后通过IP-SAN/FC-SAN流入存储层

目前常见的三种存储结构

DAS:直连存储

NAS:网络附属存储

SAN:存储区域网

DAS:直连式存储依赖服务器主机操作系统进行数据的IO读写和存储维护管理,数据备份和恢复要求占用服务器主机资源(包括CPU、系统IO等)

SAN:

存储区域网络(Storage Area Network,简称SAN)采用光纤通道(Fibre Channel)技术,通过光纤通道交换机连接存储阵列和服务器主机,建立专用于数据存储的区域网络。

SAN经过十多年历史的发展,已经相当成熟,成为业界的事实标准。SAN存储采用的带宽从100MB/s、200MB/s,发展到目前的1Gbps、2Gbps、10Gbps

SAN 结构有两种,IPSAN与FCSAN

FC SAN

优点:传输带宽高,目前有1,2,4和8Gb/s四种标准,主流的是4和8Gb/s,性能稳定可靠,技术成熟,是关键应用领域和大规模存储网络的不二选择。

缺点:成本极其高昂,需要光纤交换机和大量的光纤布线;维护及配置复杂,需要培训完全不同于LAN管理员的专业FC网络管理员。

IP SAN

由于FC SAN的高成本使得很多中小规模存储网络不能接受,一些人开始考虑构建基于以太网技术的存储网络。但是在SAN中,传输的指令是 SCSI的读写指令,不是IP数据包。iSCSI(互联网小型计算机系统接口)是一种在TCP/IP上进行数据块传输的标准。iSCSI可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行快速的数据存取备份操作。为了与之前基于光纤技术的FC SAN区分开来,这种技术被称为IP SAN。

iSCSI继承了两大最传统技术:SCSI和TCP/IP协议。这为iSCSI的发展奠定了坚实的基础。

基于iSCSI的存储系统只需要不多的投资便可实现SAN存储功能,甚至直接利用现有的TCP/IP网络。相对于以往的网络存储技术,它解决了开放性、容量、传输速度、兼容性、安全性等问题,其优越的性能使其备受关注与青睐。 在实际工作时,是将SCSI命令和数据封装到TCP/IP包中,然后通过IP网络进行传输。

IPSAN 优势:

成本低廉,购买的网线和交换机都是用以太网,甚至可以利用现有网络组建SAN;

部署简单,管理难度低;

万兆以太网的出现使得IP SAN在与FC SAN竞争时不再逊色于传输带宽;

基于IP网络的天生优势使得IP SAN很容易实现异地存储、远程容灾等穿越WAN才能时间的技术;

云数据中心基本概念介绍

从上图中我们可以看到物理资源中有防火墙,交换机,路由器,负载均衡器,服务器和一些存储设备他们都是放置在数据中心的

然后通过云计算中虚拟化的一些技术,我们就把这些物理资源逻辑化成逻辑资源,然后就可以划分成多个VDC,我们其实可以把VDC就理解成DC,但是就是里面的资源分配是我们自己组合而成的

vRouter:vRouter作为业务子网的网关,用于子网间的三层互通。

Subnet:就是一个子网

Subnet用于二层广播域的隔离,对应于一个子网网段。

同一VPC内不同Subnet的三层网关,都在同一个vRouter上。

同一Subnet内默认互通;不同Subnet间默认互通,也可通过配置安全组进行隔离。

vFW:vFW作为VPC的边界,除了可提供外部访问VPC内的安全访问控制,还可提供外部访问VPC内的接入服务。

vLB:vLB用于对外提供内部服务器间的负载均衡能力。

一个vLB可以带多个服务器,用户可给不同业务申请不同的服务器。

DCNData Center Network)Fabric概念

Fabric就是以Spine和leaf组成的一个典型的二层胖树子网

Spine:核心,一般是CE交换机的12800

Leaf:一般是一些接入层设备,CE5868,7888这些基本的交换机

是一个扁平化的组网

优点:

1.数据流量转发路径比较短,转发效率比较高

2.易扩展(比较容易弹性扩缩)

3.全互联的组网(安全性比较高)

关键技术:Vxlan

并且支持Overlay

如同人体的躯干,Fabric 网络构成数据中心网络互连的主体,是网络流量和业务的主要承载组件,由骨干节点交换机、叶子节点交换机、虚拟交换机及防火墙和负载均衡器组成。

数据中心的历史_第1张图片

Fabric一般采用Spine-leaf 扁平结构, Spine 骨干节点作为Fabric 网络核心节点,提供高速IP 转发功能,通过高速接口连接各个功能Leaf节点,Leaf叶子节点作为Fabric网络功能接入节点,提供各种网络设备接入功能。

其中接入服务器的叶子节点交换机称为Server Leaf, 接入防火墙,负载均衡器等4~7层设备的叶子节点交换机称为Service Leaf, 接入数据中心外部出口的叶子节点交换机称为Border Leaf。

为了便于数据中心的资源池化操作,可将一个数据中心划分为-或多个物理分区,每个物理分区就称为一个POD。因此,POD是一个物理概念,是数据中心的基本部署单元, 一台物理设备只能属于一个POD。一个Fabric可以部署在一个POD 内,可以跨多个POD。一般情况下,单POD的Fabric 适用于规模较小且网络规模比较固定的网络,而跨多个POD可以建立一个规模较大的Fabric,方便以后的升级和扩容。

Fabric网络构成数据中心网络互连的主体,是网络流量和业务的主要承载组件,因此Fabric 的可靠性就尤为重要。整个Fabric 由IP网络组成,网络的可靠性靠设备冗余和路由收敛保证,网络设备可靠性由设备虚拟化,通过将多个设备虚拟成-台逻辑设备,再配合链路聚合技术等保证。

服务器推荐通过M-LAG双归接入推荐两台Leaf交换机,服务器双网卡运行在主备/分担模式。设备通过建立DFS Group对外表现为一台逻辑设备,但又各自有独立的控制面,升级维护简单,运行可靠性高。因设备有独立控制面,故部署配置相对复杂。

如果单个数据中心规模较大,可以部署多个Fabric网络,每个网络采用标准的Spine-Leaf 架构,有由各自骨干节点交换机、叶子节点交换机、虚拟交换机及防火墙和负载均衡器,每个可能有独立的出口。

所有Fabric网络有统一的策略管理和统一 的控制管理, Fabric 间网络路由可达。

.云数据中心演进趋势

企业IT云转型趋势

1.传统的部门之间的业务我们称之为烟囱式的,各自都是条块分割的,信息与信息之间形成了孤岛,无法进行资源整合。

2.审批流程过于冗长,业务整体应对的反应速度也极其缓慢

企业IT转型的技术诉求

传统IT转型:Dell,惠普,IBM,红帽等

基础设施上创建一个Cloud OS(华为与之相对应的就是FusionSphere),在其之上去进行业务的迭代运行

原生互联网/开源架构

GFS 也就是 Google File System,Google公司为了存储海量搜索数据而设计的专用文件系统。

BigTable是Google设计的分布式数据存储系统,用来处理海量的数据的一种非关系型的数据库。

所以企业的IT云化,是企业IT转型的关键

从2015传统架构还是占据据大多数的,但是到了2020年我们分布式的架构开始占据了一半以上达到60%,把传统的一些业务会逐步迁移到X86的服务器上去,实现业务的虚拟化重构

业界私有云的发展现状与趋势

Cloud1.0:以虚拟化为核心的时代,提高资源利用率

Cloud2.0:Openstack,以服务为核心的时代(现在)

Cloud3.0:未来的发展方向

大多数企业都是储在虚拟化演进到私有云的过程

那我们之前也有提过虚拟化并不是私有云(云计算)

虚拟化更多偏向的是技术层面,私有云更多偏向的是服务层面

云计算的五大优势(特点):

现阶段企业IT转型中的困惑

我们总结出企业IT云转型中的一些困惑:虚拟化烟囱、资源无法快速适配业务、管理系统不统一、内部流程需求无法匹配;

企业IT转型的原动力

为什么说企业的IT为什么要上云?

1.降低成本(资源利用率提高,管理效率)

2.灵活的调度资源

3.可靠性好

华为云数据中心

FusionCloud

最底下的就是一个个物理的数据中心(DC)

用Openstack对接下面的物理资源形成计算资源池,存储资源池,网络资源池

用ManageOne进行所有的资源的统一管理,形成一个个VDC(虚拟数据中心)

形成了我们的Iaas(基础设施服务),Paas(平台服务),Saas(软件服务),Daas(数据服务)

Opensatck架构下计算资源池

通过OpenStack架构构筑开发的系统框架

1.我们可以解决计算资源统一管理的问题,支持我们的异构纳管,支持物理机、Vmware、FusionSphere和KVM(NFVI场景)的不同场景的统一监控、分配和回收。

2.其次是存储资源的融合。异构的和不同类型的存储进行融合,同时完成服务化对存储不同性能指标的要求,实现存储的SLA(服务级别的协议——用来提高开发过程的质量,减少项目失败的风险,加强与客户之间的关系)

3.SDN(Software Define Network软件定义网络)

网络的话我们只能命令行配置,部署的话效率比较低,比较容易犯错误,所以这样子的话并不能满足我们的数据中心要求,并且也不能进行资源池化

通过SDN控制器——Agile Controller来配合IT侧的Openstack实现网络部署

当计算资源,网络资源,存储资源都由我们的OpenStack部署完成之后就需要我们有一个统一服务接入的平台ManageOne

基于业务灵活的DVC

VDC可以跨资源池划分资源,VDC匹配客户的组织,实现云资源的分权分域。VDC租户管理员拥有自运营能力,业务部门自主分配云资源,聚焦业务,同时云平台的维护工作由IT部门负责,使用与建设分离,提升业务对资源的驱动能力。

SLA根据不同的性能指标来划分级别(金牌会员,银牌会员等)

不同业务对于资源的性能、功能等指标要求的也是不同的,在感知业务的前提下,通过对资源的SLA等级的划分,可实现策略化的为不同的业务所需的不同服务分配不同的资源。

基于业务驱动的弹性伸缩和业务调度

1.基于时间的策略

举例子:一个是购物网站,一个邮箱资源

白天的时候购物网站资源占用率比较低下因为都需要上班,邮箱会比较忙因为各自要内部传信息所以白天的时候邮箱性能比较高,反之晚上的时候邮箱性能低一点

2.基于性能的策略

忙的太忙,空的太空,实现性能均衡调度

3.基于时间和性能的策略

可以让一部分物理下电

统一的混合云管理

就是私有云和公有云的一个管理

云容灾解决方案(两地三中心)

1.同地可以实现双活(两边数据永远保持一致)

2.异地可以实现灾备

  • 按需自助服务
  • 广泛的网络接入
  • 资源池化
  • 快速弹性伸缩
  • 可度量服务
  • Tenant(特嫩特):租户,由系统管理员创建和分配。租户是一个VDC的实际拥有者和管理者,不同VDC对应不同的租户。
    • VDC在形式上类似于一个物理数据中心,是物理数据中心在虚拟化层的表现。
    • 在公有云场景,系统管理员可以定义VDC并为VDC分配租户,只有该VDC的租户才可管理该VDC下的资源。
    • 在私有云场景,VDC可以灵活定义,分配给一个业务/应用/部门。系统管理员可以通过VDC对企业内的不同业务/应用/部门进行不同等级的资源配额管理。
  • VPC:Virtual Private Cloud,虚拟私有云网络(可以理解为一个安全域,安全隔离)。VPC使用VDC中的资源,一个VPC只能属于一个VDC,而一个VDC可包含多个VPC。每个VPC为一个安全域,对应于一个业务/应用/部门。VPC可提供以下特性:
    • 隔离环境:VPC提供隔离的虚拟机和网络环境,满足不同业务/部门的网络隔离要求。
    • 业务丰富:每个VPC可提供独立的vFW、vLB、安全组、EIP、IPsec VPN、NAT等业务。
    • 灵活组网:VPC可提供直联网络、路由网络和内部网络等多种组网模式。
  • DC:Data Center,数据中心。DC是物理概念,是指在一个物理空间(比如机房)内实现信息的集中处理、存储、传输、交换和管理。服务器、存储和网络设备是DC的关键设备,供电、制冷、消防、监控等基础设施是DC的关键配套。
  • POD:Point of Delivery,分发点。为了便于DC的资源池化操作,可将一个DC划分为一或多个物理分区,每个物理分区就称为一个POD。由此可见,POD也是物理概念,是DC的基本部署单元,一台物理设备只能属于一个POD。
  • AZ:Availability Zone,可用区域。AZ是逻辑概念,代表了一个故障隔离区域。比如一些主机共用了一套电源和网络设施,当这套设施出现故障时,这部分资源就全部不可用了。在规划时,AZ与DC可按实际部署情况灵活映射。比如:在大规模公有云中,一个AZ可包含多个DC;在中小规模私有云中,一个DC内可设置多套独立的AZ;当然,也可将一个DC规划为一个AZ,这时DC与AZ是等同的。
    • 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。
    • 如果您的应用要求实例之间的网络延时较低,则建议您将资源创建在同一可用区内。
  • VDC:Virtual Data Center,虚拟数据中心。VDC是一个组织可使用资源的集合,一般包括计算、存储和网络资源。
  • 从上往下看垂直分层:外部接入层(连接内部网络,外联专线,异地灾备中心)、网络核心层(连接整个数据中心的网络)、服务器接入层(服务器会大量的接入到网络核心层)、存储层(存储设备提供存储资源(磁盘空间))
  • 水平分区:业务区、生产区、测试区,大数据区、DMZ区。
  • 装饰系统:包括各种功能房间的天、地、墙的装饰装修。
  • 电气系统:包括供电系统、UPS配电系统、动力配电系统、照明系统、防雷/接地系统和机柜,这里的机柜相对特殊,也有人把机柜放在装饰系统里或放在弱电系统里。
  • 空调系统:包括精密空调系统、舒适性空调系统、新风系统和排烟/排气系统。
  • 消防系统:包括火灾自动报警系统、火灾自动灭火系统和极早期报警系统。
  • 弱电系统:包括综合布线系统、安防监控系统、环境监控系统和设备监控系统。
  • 管理系统:包括监控平台、大屏幕显示、会议系统、KVM、RFID等。
  • 供电系统:包括柴油发电机组、ATS、UPS、直流电源柜、交流电源柜、静态转换开关、蓄电池及电池架、电源线缆。
  • 制冷系统:包括精密空调、舒适性空调和通风系统。
  • 首先,从企业的诉求和数据中心的主要功能角度来说,数据中心不再是以前的“土木工程”的概念,数据中心的内容起码应该包括场地环境、IT设备和监控管理这三个部分。场地环境,来保证信息系统的可靠、稳定运行;IT设备是信息系统赖以运行的IT基础设施;监控管理,包括对场地基础设施和IT基础设施的有效管理。
  • “模块化数据中心”,就是要满足不可预知的业务和IT增长的需求;同时根据IT需求控制初始投资和运营成本;模块化的电源和模块化的制冷;系统扩展不需要中断业务;
  • “绿色数据中心”,对数据中心来说,重点是节能降耗,就是采用多种技术和手段,有效的降低运营成本(重点降低PUE值);
  • “智慧数据中心”,就是实现IT设备、场地设施和IT流程的统一监控管理;能够支持能源管理和资产管理;支持实时信息、仿真模拟和远程监控等各种技术;
  • “云数据中心”,云计算有其基本特征,即:
    • 基于大规模基础设施支撑的强大计算能力和存储能力;
    • 使用多种虚拟化技术提升资源利用率;
    • 依托弹性扩展能力支持的按需访问,按需付费以及强通用性;
    • 专业的运维支持和高度的自动化技术;
  • 这些基本特征,要求数据中心能支持资源共享、灵活交付的动态的资源管理;支持高密度发展趋势;支持标准化扩展;支持多中心运维。
  • 1994年,网络进入中国,机房内不再仅仅是计算机系统,开始有了真正意义上的信息系统。
  • 进入21世纪,随着中国经济的发展和信息化普及,人们的日常生活、生产都和信息系统息息相关;IT系统及信息化建设已经成为企业发展的推动力,数据中心基础设施建设作为IT系统的支撑,已经成为必须。
  • 需要专门的客户端安装程序,分布功能弱,针对点多面广且不具备网络条件的用户群体,不能够实现快速部署安装和配置。
  • 兼容性差,对于不同的开发工具,具有较大的局限性。若采用不同工具,需要重新改写程序。  
  • 开发、维护成本较高,需要具有一定专业水准的技术人员才能完成,发生一次升级,则所有客户端的程序都需要改变。。
  • 用户群固定。由于程序需要安装才可使用,因此不适合面向一些不可知的用户,所以适用面窄,通常用于局域网中。
  • 能充分发挥客户端PC的处理能力,很多工作可以在客户端处理后再提交给服务器,所以CS客户端响应速度快。
  • 操作界面漂亮、形式多样,可以充分满足客户自身的个性化要求。  
  • 安全性能可以很容易保证,C/S一般面向相对固定的用户群,程序更加注重流程,它可以对权限进行多层次校验,提供了更安全的存取模式,对信息安全的控制能力很强。一般高度机密的信息系统采用C/S结构适宜。
  • 个性化特点明显降低,无法实现具有个性化的功能要求。不过随着html5的普及,这个缺点越来越弱化了。 
  • 客户端服务器端的交互是请求-响应模式,通常动态刷新页面,响应速度明显降低(Ajax可以一定程度上解决这个问题)。无法实现分页显示,给数据库访问造成较大的压力。 
  • 分布性强,客户端零维护。只要有网络、浏览器,可以随时随地进行查询、浏览等业务处理。 
  • 业务扩展简单方便,通过增加网页即可增加服务器功能。  
  • 维护简单方便,只需要改变网页,即可实现所有用户的同步更新。 
  • 开发简单,共享性强。
  • 租户隔离(每一个球队的教练都是属于自己球队的资源,我们球队之间教练肯定都是隔离开的)
  • 资源调度(场上调兵遣将,调度球员)
  • 负载均衡(保证尽量分配好自己球员的上场时间,体力分配好,不能一直常常用一个球员,要利用分配好每个球员)
  • 等级Ⅰ(T1级别):基本数据中心——可以接受数据业务的及唤醒和非计划性中断。要求要提供计算机配电和冷却系统,但是不一定要求高架地板,UPS(不间断电源)或者发电机组。有可能是一个单回路系统,那么会造成单点故障。在年度检修和维护的时候,这类系统就会完全宕机,而且操作故障或者设备自身故障都会导致系统中断,业务的不连续。
  • 等级Ⅱ(T2级别):基础设施部件冗余——设备具有组件冗余的功能,为了减少计划性和非计划性的系统中断。这类数据中心必须要提供高架地板,UPS(不间断电源)或者发电机组,同时还要用备用要求。一旦当重要设备或者其他组件需要维护时,我们可以通过设备的切换来保障系统不中断,或者是切换时带来的短暂中断。
  • 等级Ⅲ(T3级别):基础设施同时可维修(全冗余系统)——支持支撑系统设备任何的及唤醒的动作而不会导致机房设备的任何服务中断。计划性的动作包括规划好的定期维护,保养,元器件更换,设备的扩容兼容,系统调试等。一旦当其他谁被执行计划性的任务时,必须保重系统能正常运行。非计划性的动作:比如操作故障,设备自身故障这些中断时可以接受的。
  • 等级Ⅳ(T4级别):基础设施故障容错——要求避免任何计划性动作导致的重要负荷停机奉贤。同时要有能力避免至少一次的非计划性的故障或其他事件导致的重要负荷停机风险。提供双路容错机制供电。
  • A:容错性
  • B:冗余性
  • C:基本型

 

你可能感兴趣的:(数据安全)