一.数据中心历史
现在可能大家认为放了一堆电脑或者是服务器组成的地方就是数据中心
其实现在数据中心是一定的评级标准的,只有到达了一定的规模和数量才能被称之为数据中心
数据中心(DC-DataCenter)通常是指在一个物理空间内实现对数据信息的集中处理,存储,传输,交换,管理,一般含有计算机设备,服务器设备,网络设备,通信设备,存储设备等关键设备。数据中心的基础设施是指为确保数据中心的关键设备和装置能安全、稳定和可靠运行而设计配置的基础工程,也称之为机房,数据中心机房工程的建设不仅要为数据中心中的系统设备运营管理和数据信息安全提供保障环境,为工作人员创造健康舒适的工作环境。
国内数据中心机房等级划分:
美国标准《数据中心的通信基础设施标准》等级划分:
数据中心的雏形——ENIAC(衣尼爱克)是用水晶二极管的
ENIAC,全称为Electronic Numerical Integrator And Computer,即电子数字积分计算机。ENIAC是继ABC(阿塔纳索夫-贝瑞计算机)之后的第二台电子计算机和第一台通用计算机。
曾有媒体误传ENIAC是第一台计算机,实际上,真正的第一台电子计算机是ABC计算机。事实上ABC计算机不可编程,且非图灵完全,只能进行线性方程组的计算。它的价值是确定了一些现代计算机设计思想,如采用二进制、可重用的存储器等。所以说ENIAC是第一台通用计算机。
ENIAC的诞生,让当时的科学家们享受了计算的畅快,但却必须痛苦地使用它。不仅因为它贵,更因为电子管实在太耗电,零件的寿命也太短,据说ENIAC每次一开机,整个费城西区的电灯都为之黯然失色。同时接近18000个电子管,几乎每15分钟就可能烧掉一个,但操作人员可能要花15分钟以上的时间才能找出坏掉的管子,使用上极不方便。曾有人调侃道:“只要那部机器可以连续运转五天,而没有一只真空管烧掉,发明人就要额手称庆了”。
因此在晶体管技术投入实用后,计算机的计算元件也迅速的电子管向晶体管进化。
数据中心虚拟化技术商业化——Tradic
所以在1954年,美国贝尔实验室研制成功第一台使用晶体管线路的计算机,取名“催迪克”(TRADIC),装有800个晶体管。而计算机的体积,也由ENIAC的房间般大小,缩小为衣橱般体积。晶体管快速的开关速度和结构的简化以及在催迪克上引入的浮点运算,让其速度有了极大的提高。
晶体管的计算机比二极管的计算机的主要好处在于:
1、与电子管计算机相比,晶体管计算机具有体积小,重量轻,使用寿命更长,效率更高,发热少,耗能低等优点。
2、晶体管计算机的计算能力精确度更高,数据的绝对值能够达到2的几十次方到几百次方,大大的提高了数据分析速度,是其他计算工具不能实现的。
3、晶体管计算机的产生带动了相关计算机小部件产品的广泛应用,为计算机时代的发展带来了质的飞越
但是也有其缺点在于:
1、晶体管计算机产生的辐射对人体的循环系统、免疫、生殖和代谢功能,严重的还会诱发癌症、并会加速人体的癌细胞增殖。这不单单是晶体管计算机的缺点,也是所有计算机产品的缺点。
2、计算机对人们的视觉系统有不良影响,由于眼睛属于人体对电磁辐射的敏感器官,过高的电磁辐射污染还会对视觉系统造成影响。主要表现为视力下降,引起白内障等。而晶体管计算机与集成电路计算机相比,其辐射强度更强。
虚拟化已经在60,70年代有了雏形。
虚拟化,云计算这里可以提及一下。
云计算——服务层面。只做(控制面)资源的分配和管理,自己不需要干活,做资源的调度,做了一个大资源池化,让租户之间隔离(就像农夫山泉,我们不生产水我们只是大自然的搬运工)
云是把资源池化,接管资源,资源管理调度但是不提供资源(用户是和云这一层接触)
云计算底层不仅可以放虚拟化,也可以放物理机(裸金属)有些应用只能用物理机比如oracle RAC
那我们为什么大部分选择底层用虚拟机呢,是利用虚拟机的弹性伸缩,负载均衡。
虚拟化——技术层面的。
云计算——资源化管理,调度:足球教练(类似于一个掌控大局的人,自己不需要上场去踢球,主要用来调兵遣将,根据对手的情况或者场上的情况去调用分配自己手下的资源——球员)
云计算的特点:
虚拟化技术——真正用来执行任务:足球运动员(主要是足球员在场上踢球)
虚拟化技术:是一种资源管理(优化)技术,将计算机的各种物理资源(CPU、内存以及磁盘空间、网络适配器等 I/O 设备)予以抽象、转换,然后呈现出来的一个可供分割并任意组合为一个或多个(虚拟)计算机的配置环境。
虚拟化技术打破了计算机内部实体结构间不可切割的障碍,使用户能够以比原本更好的配置方式来应用这些计算机硬件资源。而这些资源的虚拟形式将不受现有架设方式,地域或物理配置所限制。
C/S结构计算模型与互联网
C/S(Client/Server):客户端/服务端,C/S 架构是一种典型的两层架构,其客户端包含一个或多个在用户的电脑上运行的程序,而服务器端有两种,一种是数据库服务器端,客户端通过数据库连接访问服务器端的数据;另一种是Socket服务器端,服务器端的程序通过Socket与客户端的程序通信。客户端需要实现绝大多数的业务逻辑和界面展示。这种架构中,作为客户端的部分需要承受很大的压力,因为显示逻辑和事务处理都包含在其中,通过与数据库的交互(通常是SQL或存储过程的实现)来达到持久化数据,以此满足实际项目的需要。
B/S(Browser/Server):浏览器/服务器,浏览器也就是指的是web浏览器如微软的Internet Explorer、Firefox、Opera等,随着Internet技术的兴起,对C/S架构的改进,为了区别于传统的C/S 模式,特意称为B/S模式。在这种模式下,极少的逻辑是在前端(Browser)实现,主要事务逻辑在服务器端(Server)实现,和DB端构形成三层结构。这样就极大程度上减轻了客户端。
胖客户端(RC)
它将应用程序的处理过程分为两个部分:客户端部分client-side和服务器部分server-side。
客户端部分既要处理UI界面的解析显示,又要对大部分的业务逻辑进行处理操作,要求客户端机器要有很强的处理能力,减轻服务器端压力,服务器端只进行客户端访问控制,数据表单接收等操作。
由于客户端做了大部分的工作,他的逻辑体积越发庞大,越来越‘臃肿’,于是我们就成这样的客户端为胖客户端。
瘦客户端(TC)
顾名思义,与胖客户端相反,客户端专注于处理UI的数据展示,而不再将大量的逻辑处理放在客户端上,这样客户端只需要简单的单据数据校验逻辑和表单数据提交。
而大量的业务逻辑将在服务器端接收到相关的请求后,通过表单数据进行相应的逻辑处理,然后将结果打包成HTML返回给客户端解析。
这样,客户端的所包含的逻辑代码将会变得很少,相反服务器端的压力将必须经得住考验。
b/s的优点:
b/s的缺点:
c/s的优点:
c/s的缺点:
总结的来说就是:
B/S 只需要有操作系统和浏览器就行,可以实现跨平台,客户端零维护,但是个性化能力低,响应速度较慢
C/S响应速度快,安全性强,一般应用于局域网中,因为要针对不同的操作系统,需要针对性的开发,并且维护成本高
胖客户端 |
瘦客户端 |
|
不同的主体 |
胖客户端将应用程序的处理过程分为两部分:客户端部分用户桌面计算机复合体。 |
瘦客户端应用主要指B/S结构(浏览器/服务器模式)的web应用,这种模式统一了客户端,让核心的业务处理在服务端完成。你只需要在自己电脑或手机上安装一个浏览器,就可以通过web Server与数据库进行数据交互。 B/S实际上是C/S结构(客户端/服务端)的一种变体,是指C/S结构中的客户端程序,这种结构是将需要处理的业务合理地分配到客户端和服务器端,这样可以大大降低通信成本,但是升级维护相对困难。比如我们手机中安装的微信、qq、王者荣耀等应用程序就是C/S结构。 |
不同的原理 |
用户的所有操作都在本地计算机上,不进行网络传输。 |
通过一些协议和服务器通信,然后接入局域网,瘦客户机将其鼠标、键盘和其他输入传输到服务器进行处理,服务器将处理结果返回瘦客户机进行显示。 |
不同的特点 |
受网络用户欢迎,因为胖客户端可以定制,用户可以选择安装什么样的软件和配置什么样的特殊系统,独立于网络公司。 |
瘦客户端易于管理,易于避免安全风险,不需要任何维护和许可成本。 |
能耗问题就会随之出现
模块化数据中心
模块化数据中心(一体化模块化产品)含有机柜、配电柜、UPS、精密空调、动环监控系统、冷通道、电池柜等,由这些产品组成一个封闭空间。每个产品可以看成一个模块,就像搭积木一样组合起来就成了一个模块化数据中心,你可以根据自己的需求增添产品。
模块化数据中心其实就是把机房的所有功能集成到一个模块化一体化产品中,这个一体化产品可以看成一个机房,把这个产品布置在一个房间内就可以使用了,而房间不用做太多的装修。
为什么说模块化机房会应运而生呢?
1.高可靠性标准模块
可以根据客户需求与实际情况,可以在原本配置上提供多种布局设计方案,安全可靠,可以到达T3,T4的水平
2.快速部署,大大缩短建设周期
3.实现分期建设,易扩展性
在降低初期投资的基础上,实现了数据中心的按需部署,避免固定资产的闲置浪费,同时保证了大型数据中心的任意IT空间的基础设施配置达到最佳状态。
4.绿色节能
模块化数据中心实现IT设备按需供电与制冷,让供电和制冷系统的容量与负载需求更为匹配,从而提高了工作效率并减少过度配置。微模块电源转换率高达95%,由于采用标准化的接口和微模块架构,极大节省电能,达到系统节能。
5.智能管理,精细运维
模块化数据中心利用对微模块内部环境、动力设备等的实时监测,以及IT设备与基础设施的协同工作,实现动环+IT设备的精细化运维。智能管理系统能够提供可视化体验,帮助客户实现数据中心多层级、精细化能耗管理,通过多种报表精确定位能源额外损耗点,实现节能降耗。
同时帮助用户制定资产维护计划,实现主动预警,动态调整维护计划,按照当前实际情况输出优化方案,构建最佳资产管理功能等。
6.集装箱数据中心易搬迁
作为一种新型数据中心解决方案,它既满足传统数据中心对机房基础设施的需求,同时具备传统数据中心所不具备的户外放置特性,以及实现机房可搬迁特性。
云数据中心
在普通的数据架构的前提下去提供一种云化的思想。
在这里我们提到了Saas的一个概念,它其实是隶属于云计算的服务模式。
二.数据中心基本组成模块
什么是数据中心?
数据中心包含很多设备/很多功能的中心,不仅仅有服务器,计算机操作系统等这些必要的组件,还有一些辅助必要组件的一些通信设备,安全设备,环境监控设备等这些安全上的设备的一种集合体。
数据中心(类似于一种解决方案)的模块化构成
L0 :盖楼:指土建、机房楼宇部分,说白了就是盖楼。
L1:基础设施:机房配套,指机房装修、供电、制冷消防等。
L2 :IT基础架构:机房基础设施层,包括服务器、存储、网络,以及一些虚拟化的台软件等。
L3:应用平台为主
L4:业务:各种服务。
我们主要关注的是L2-L4层的服务
数据中心是一个面向业务的基础架构,是支持公司业务运营和未来成长的核心保障,主要包括以下几方面:
安全的网络架构;可靠的支持设施(机房,发电机、UPS,空调等);整合的服务器/应用平台;集中的存储和备份;统一的系统管理平台;面向客户服务的运维管理组织和流程
数据中心基础设施发展
上面两个表是近年来数据中心基础设施市场规模统计:第一个表是世界范围内的数据中心基础设施市场规模的统计,2010年就180多亿美金,而且每年都在增长,即使是中间有过经济危机;第二个表是中国数据中心基础设施市场规模的统计,可以看出,中国市场发展非常快,比国际平均数据要高的多,这和我国经济发展速度想匹配,当然也和我国的数据中心建设相对起步较晚有关。
下面两个表是对未来数据中心基础设施市场规模的预测:同样,第一个表是世界范围的预测,第二个表是对中国市场的预测。我们可以看出,未来,中国的数据中心基础设施市场发展还是很快,市场前景非常好。
数据中心产业的发展不局限于机房面积的增加,重要的体现在产业向深度和广度的扩展。“数据中心”的定义,不再局限于场地基础设施,其内涵和外延越来越广,IT、网络、搬迁、运维都在逐步纳入到数据中心建设范畴内,下面我们将重点来讨论现代数据中心的发展和特点。
数据中心基础设施发展趋势
企业的发展——准确的说应该是其业务的发展,向IT系统及信息化建设提出不断的需求,它是数据中心发展的原动力。
反过来,数据中心的发展——各种功能、业务的实现,也促进了企业的进一步发展。同样,数据中心的发展对相关材料、技术提出新的要求;反过来,新的技术和材料的产生,使数据中心的新要求成为可能,满足数据中心发展的同时促进了企业的进步。
举例来说,某企业业务的扩展,使其数据中心规模越来越大,日常的运维管理越来越繁琐,越来越复杂,成本也越来越高,风险越来越大;数据中心的智能化管理需求提到了日程上来。数据中心智能化管理的需求,对相应的材料-比如数据的自动采集提出需求;对相应的数据库、应用处理程序和前端展示平台等技术提出需求。随着新材料、新技术的成熟,数据中心智能化管理的实现,在提升数据中心本身的同时,排除了企业发展的瓶颈,促进了企业业务的进一步发展。
由此可以得出企业业务发展、数据中心发展和新技术/新材料的发展,三者之间是相辅相成、互相限制又互相促进的;同时,企业业务的发展是数据中心发展的原动力,即需求决定了发展。
那么近年来,数据中心都有哪些变化呢?
1.就数据中心本身来说,那么它主要有如下几个变化:
数据中心服务由单一服务向多功能服务方向发展;以前的数据中心服务功能相对单一,比如以前的计算中心,主要为企业的生产提供支撑;现在的数据中心,服务功能更多更全面,不但支撑企业的生产,同样为企业管理、企业培训及企业日常活动等多方面提供支撑,甚至可以对外提供服务;
2.数据中心规模也越来越大
3.数据中心在企业中的地位也越来越重要(数据的安全性,可靠性这些会做一点私有云)
4.数据中心由单纯消费型向投资盈利型转变。
客户不再仅仅关注场地基础设施,越来越关注和基础设施相关的IT服务(服务器、存储、网络、安全、运维、容灾、搬迁等等,甚至是IT管理和业务流程),借助于云计算的服务将基础设施服务进行外租等。
未来的数据中心
未来的数据中心又会是什么样呢?
绿色数据中心关键评价指标
Power Usage Effectiveness的简写,是评价数据中心能源效率的指标(一般指的是电能使用效率),是数据中心消耗的所有能源与IT负载消耗的能源的比值。
PUE = 数据中心总能耗/IT设备能耗,其中数据中心总能耗包括IT设备能耗和制冷、配电等系统的能耗,其值大于1,越接近1表明非IT设备耗能越少,即能效水平越好。
理想PUE在1.6~2.0之间,甚至更低。PUE值并不是越低越好,改善散热设计是降低PUE的关键。
DCIE(Data Center Infrastructure Efficiency)数据中心基础架构效率
DCIE=IT设备能耗/数据中心总设备能耗*100%,DCiE是一个百分比值,数值越大越好
数据中心基础设施组成(L1层)
我们将从系统角度,介绍基础设施一般包括哪些系统和这些系统的组成。
我们都知道,数据中心场地基础设施是一个包括多个子系统的集成。这张图片是我们华为目前对数据中心L1层基础设施多系统的一个定义,可以看出,我们把基础设施分为8个系统。
还有内部装修、机柜系统、防雷/接地、消防系统、综合布线和集成管理等共8个系统。
数据中心建设,始终是一个场地工程项目,要满足某种功能,或满足用户某个需求,一定是要站在系统的角度上来考虑,单独的某个设备或某些设备的堆砌,是不能满足需求的,我们一定要考虑设备的搭配、衔接,设备相互的关系,配以相应的系统设计和安装,才能最终满足某种需求。
数据中心基础设施系统分类
由于数据中心的特殊性,业内通常划分为装饰装修、电气系统、空调系统、消防系统、弱电系统和管理系统
典型数据传统中心逻辑分区
统一的运维平台
核心网络:内部网络+外联单位网络+Internet网络+灾备中心网络
业务区:普通业务区+DMZ业务区
DMZ:隔离区,内外网防火墙之间的区域,主要做一个缓冲区,会放置一些公共服务器
用户从外网访问到的服务,可以放置在DMZ区域
内网可以单向访问到DMZ区域,外网也可以单向访问到DMZ区域
设置DMZ区域主要是为了安全考虑
存储区:存储业务的数据信息
典型数据中心网络架构
SDH(同步数字体系):是一种将复接,线路传输以及交换功能融合为一体,并由同一网关系统操作的综合信息传送给网络
可以实现网络的有效管理,实时业务监控,动态网络维护,不同厂商设备间的互通等多项功能,可以大大提高网络资源利用率,降低管理及维护费用,实现灵活可靠和高效的网络运行与维护。
SDH的出现是因为人们希望信息传输网络可以更加快速,经济,有效提供各种电路以及业务,其诞生解决了由于入户媒质的带宽限制而跟不上用户业务需求的一个发展,提高了传输网上大量带宽的利用率
VPN(虚拟专用网络),我们可以把其理解成虚拟出来的企业内部专线。可以通过特殊的加密的通讯协议连接在Internet上的位于不同地方的两个或多个企业内部网之间建立一条专有的通讯线路。就好比是架设了一条专线一样,但是它不需要真正的铺设光缆之类的物理线路。
具体流程:
① 流量经由核心层的三层网关选路转发往核心交换机
② 经由核心转发往 SDN 服务器分区中的的网关交换机
③ 网关交换机查找路由转发往防火墙
④ 防火墙根据路由转发至统一运维护理管理业务区
⑤ 最后通过IP-SAN/FC-SAN流入存储层
目前常见的三种存储结构
DAS:直连存储
NAS:网络附属存储
SAN:存储区域网
DAS:直连式存储依赖服务器主机操作系统进行数据的IO读写和存储维护管理,数据备份和恢复要求占用服务器主机资源(包括CPU、系统IO等)
SAN:
存储区域网络(Storage Area Network,简称SAN)采用光纤通道(Fibre Channel)技术,通过光纤通道交换机连接存储阵列和服务器主机,建立专用于数据存储的区域网络。
SAN经过十多年历史的发展,已经相当成熟,成为业界的事实标准。SAN存储采用的带宽从100MB/s、200MB/s,发展到目前的1Gbps、2Gbps、10Gbps
SAN 结构有两种,IPSAN与FCSAN
FC SAN
优点:传输带宽高,目前有1,2,4和8Gb/s四种标准,主流的是4和8Gb/s,性能稳定可靠,技术成熟,是关键应用领域和大规模存储网络的不二选择。
缺点:成本极其高昂,需要光纤交换机和大量的光纤布线;维护及配置复杂,需要培训完全不同于LAN管理员的专业FC网络管理员。
IP SAN
由于FC SAN的高成本使得很多中小规模存储网络不能接受,一些人开始考虑构建基于以太网技术的存储网络。但是在SAN中,传输的指令是 SCSI的读写指令,不是IP数据包。iSCSI(互联网小型计算机系统接口)是一种在TCP/IP上进行数据块传输的标准。iSCSI可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行快速的数据存取备份操作。为了与之前基于光纤技术的FC SAN区分开来,这种技术被称为IP SAN。
iSCSI继承了两大最传统技术:SCSI和TCP/IP协议。这为iSCSI的发展奠定了坚实的基础。
基于iSCSI的存储系统只需要不多的投资便可实现SAN存储功能,甚至直接利用现有的TCP/IP网络。相对于以往的网络存储技术,它解决了开放性、容量、传输速度、兼容性、安全性等问题,其优越的性能使其备受关注与青睐。 在实际工作时,是将SCSI命令和数据封装到TCP/IP包中,然后通过IP网络进行传输。
IPSAN 优势:
成本低廉,购买的网线和交换机都是用以太网,甚至可以利用现有网络组建SAN;
部署简单,管理难度低;
万兆以太网的出现使得IP SAN在与FC SAN竞争时不再逊色于传输带宽;
基于IP网络的天生优势使得IP SAN很容易实现异地存储、远程容灾等穿越WAN才能时间的技术;
云数据中心基本概念介绍
从上图中我们可以看到物理资源中有防火墙,交换机,路由器,负载均衡器,服务器和一些存储设备他们都是放置在数据中心的
然后通过云计算中虚拟化的一些技术,我们就把这些物理资源逻辑化成逻辑资源,然后就可以划分成多个VDC,我们其实可以把VDC就理解成DC,但是就是里面的资源分配是我们自己组合而成的
vRouter:vRouter作为业务子网的网关,用于子网间的三层互通。
Subnet:就是一个子网
Subnet用于二层广播域的隔离,对应于一个子网网段。
同一VPC内不同Subnet的三层网关,都在同一个vRouter上。
同一Subnet内默认互通;不同Subnet间默认互通,也可通过配置安全组进行隔离。
vFW:vFW作为VPC的边界,除了可提供外部访问VPC内的安全访问控制,还可提供外部访问VPC内的接入服务。
vLB:vLB用于对外提供内部服务器间的负载均衡能力。
一个vLB可以带多个服务器,用户可给不同业务申请不同的服务器。
DCN(Data Center Network)Fabric概念
Fabric就是以Spine和leaf组成的一个典型的二层胖树子网
Spine:核心,一般是CE交换机的12800
Leaf:一般是一些接入层设备,CE5868,7888这些基本的交换机
是一个扁平化的组网
优点:
1.数据流量转发路径比较短,转发效率比较高
2.易扩展(比较容易弹性扩缩)
3.全互联的组网(安全性比较高)
关键技术:Vxlan
并且支持Overlay
如同人体的躯干,Fabric 网络构成数据中心网络互连的主体,是网络流量和业务的主要承载组件,由骨干节点交换机、叶子节点交换机、虚拟交换机及防火墙和负载均衡器组成。
Fabric一般采用Spine-leaf 扁平结构, Spine 骨干节点作为Fabric 网络核心节点,提供高速IP 转发功能,通过高速接口连接各个功能Leaf节点,Leaf叶子节点作为Fabric网络功能接入节点,提供各种网络设备接入功能。
其中接入服务器的叶子节点交换机称为Server Leaf, 接入防火墙,负载均衡器等4~7层设备的叶子节点交换机称为Service Leaf, 接入数据中心外部出口的叶子节点交换机称为Border Leaf。
为了便于数据中心的资源池化操作,可将一个数据中心划分为-或多个物理分区,每个物理分区就称为一个POD。因此,POD是一个物理概念,是数据中心的基本部署单元, 一台物理设备只能属于一个POD。一个Fabric可以部署在一个POD 内,可以跨多个POD。一般情况下,单POD的Fabric 适用于规模较小且网络规模比较固定的网络,而跨多个POD可以建立一个规模较大的Fabric,方便以后的升级和扩容。
Fabric网络构成数据中心网络互连的主体,是网络流量和业务的主要承载组件,因此Fabric 的可靠性就尤为重要。整个Fabric 由IP网络组成,网络的可靠性靠设备冗余和路由收敛保证,网络设备可靠性由设备虚拟化,通过将多个设备虚拟成-台逻辑设备,再配合链路聚合技术等保证。
服务器推荐通过M-LAG双归接入推荐两台Leaf交换机,服务器双网卡运行在主备/分担模式。设备通过建立DFS Group对外表现为一台逻辑设备,但又各自有独立的控制面,升级维护简单,运行可靠性高。因设备有独立控制面,故部署配置相对复杂。
如果单个数据中心规模较大,可以部署多个Fabric网络,每个网络采用标准的Spine-Leaf 架构,有由各自骨干节点交换机、叶子节点交换机、虚拟交换机及防火墙和负载均衡器,每个可能有独立的出口。
所有Fabric网络有统一的策略管理和统一 的控制管理, Fabric 间网络路由可达。
三.云数据中心演进趋势
企业IT云转型趋势
1.传统的部门之间的业务我们称之为烟囱式的,各自都是条块分割的,信息与信息之间形成了孤岛,无法进行资源整合。
2.审批流程过于冗长,业务整体应对的反应速度也极其缓慢
企业IT转型的技术诉求
传统IT转型:Dell,惠普,IBM,红帽等
基础设施上创建一个Cloud OS(华为与之相对应的就是FusionSphere),在其之上去进行业务的迭代运行
原生互联网/开源架构
GFS 也就是 Google File System,Google公司为了存储海量搜索数据而设计的专用文件系统。
BigTable是Google设计的分布式数据存储系统,用来处理海量的数据的一种非关系型的数据库。
所以企业的IT云化,是企业IT转型的关键
从2015传统架构还是占据据大多数的,但是到了2020年我们分布式的架构开始占据了一半以上达到60%,把传统的一些业务会逐步迁移到X86的服务器上去,实现业务的虚拟化重构
业界私有云的发展现状与趋势
Cloud1.0:以虚拟化为核心的时代,提高资源利用率
Cloud2.0:Openstack,以服务为核心的时代(现在)
Cloud3.0:未来的发展方向
大多数企业都是储在虚拟化演进到私有云的过程
那我们之前也有提过虚拟化并不是私有云(云计算)
虚拟化更多偏向的是技术层面,私有云更多偏向的是服务层面
云计算的五大优势(特点):
现阶段企业IT转型中的困惑
我们总结出企业IT云转型中的一些困惑:虚拟化烟囱、资源无法快速适配业务、管理系统不统一、内部流程需求无法匹配;
企业IT转型的原动力
为什么说企业的IT为什么要上云?
1.降低成本(资源利用率提高,管理效率)
2.灵活的调度资源
3.可靠性好
华为云数据中心
FusionCloud
最底下的就是一个个物理的数据中心(DC)
用Openstack对接下面的物理资源形成计算资源池,存储资源池,网络资源池
用ManageOne进行所有的资源的统一管理,形成一个个VDC(虚拟数据中心)
形成了我们的Iaas(基础设施服务),Paas(平台服务),Saas(软件服务),Daas(数据服务)
Opensatck架构下计算资源池
通过OpenStack架构构筑开发的系统框架
1.我们可以解决计算资源统一管理的问题,支持我们的异构纳管,支持物理机、Vmware、FusionSphere和KVM(NFVI场景)的不同场景的统一监控、分配和回收。
2.其次是存储资源的融合。异构的和不同类型的存储进行融合,同时完成服务化对存储不同性能指标的要求,实现存储的SLA(服务级别的协议——用来提高开发过程的质量,减少项目失败的风险,加强与客户之间的关系)
3.SDN(Software Define Network软件定义网络)
网络的话我们只能命令行配置,部署的话效率比较低,比较容易犯错误,所以这样子的话并不能满足我们的数据中心要求,并且也不能进行资源池化
通过SDN控制器——Agile Controller来配合IT侧的Openstack实现网络部署
当计算资源,网络资源,存储资源都由我们的OpenStack部署完成之后就需要我们有一个统一服务接入的平台ManageOne
基于业务灵活的DVC
VDC可以跨资源池划分资源,VDC匹配客户的组织,实现云资源的分权分域。VDC租户管理员拥有自运营能力,业务部门自主分配云资源,聚焦业务,同时云平台的维护工作由IT部门负责,使用与建设分离,提升业务对资源的驱动能力。
SLA根据不同的性能指标来划分级别(金牌会员,银牌会员等)
不同业务对于资源的性能、功能等指标要求的也是不同的,在感知业务的前提下,通过对资源的SLA等级的划分,可实现策略化的为不同的业务所需的不同服务分配不同的资源。
基于业务驱动的弹性伸缩和业务调度
1.基于时间的策略
举例子:一个是购物网站,一个邮箱资源
白天的时候购物网站资源占用率比较低下因为都需要上班,邮箱会比较忙因为各自要内部传信息所以白天的时候邮箱性能比较高,反之晚上的时候邮箱性能低一点
2.基于性能的策略
忙的太忙,空的太空,实现性能均衡调度
3.基于时间和性能的策略
可以让一部分物理下电
统一的混合云管理
就是私有云和公有云的一个管理
云容灾解决方案(两地三中心)
1.同地可以实现双活(两边数据永远保持一致)
2.异地可以实现灾备