[收藏] 深度解析服务器科普知识

[收藏] 深度解析服务器科普知识_第1张图片


640?wx_fmt=gif

    在上一篇服务器基础知识文章“[收藏] 最全服务器基础知识科普”中,读者阅读量超过了1.1W,既然大家这么喜欢此类科普文章,今天笔者再次给大家带来服务器深度知识相关文章,请大家搬好椅子,精彩内容马上开始。


    服务器是网络数据的节点和枢纽,是一种高性能计算机,存储、处理网络上80%的数据、信息,负责为网络中的多个客户端用户同时提供信息服务,获取大家非常熟悉服务器的RAS特性,但实际上服务器的可服务特性包含RASUM,他们分别是:


Ø  可靠性 (Reliablity)

      可靠性是保持可靠而一致的特性,数据完整性和在发生之前对硬件故障做出警告是可靠性的两个方面 ,如硬件冗余、预警、RAID技术

Ø  高可用性 (Availability)

      高可用性是指随时存在并且可以立即使用的特性

      从系统故障中迅速恢复 ;支持关键组件热插拔;新组件替换故障组件的能力

Ø  可扩充性 (Scalability)

      在服务器上具备一定的可扩展空间和冗余件(如磁盘阵列架位、PCI和内存条插槽位等)。

      增加内存的能力 ;增加处理器的能力 ;增加磁盘容量的能力 ;支持多种主流操作系统的限制

Ø  易用性 (Usability)

      是否容易操作,如用户导航系统是否完善,机箱设计是否人性化,是否有关键恢复功能,是否有操作系统备份,以及是否有足够的培训支持等方面

Ø  可管理性 (Manageability )

      一方面更高效的管理,更少的人力、物力;另一方面提供简单的基础架构,从最基础的层面上简化管理。


    上一篇文章中,我们也对服务器进行了不同分类,服务器按照指令集分类为:


      复杂指令集CISC(Complex Instruction Set Computer)

   1)指英特尔生产的x86(intel CPU的一种命名规范)系列CPU及其兼容CPU

   2)AMD全系列CPU,Intel除安腾系列外的CPU


         精简指令集RISC(Reduced Instruction Set Computing )

   1)小型机(IBM、HP、SUN);2)专用平台、专用系统;3)大型应用后台密集集中处理。在中高档服务器中普遍采用这一指令系统的CPU,特别是高档服务器全都采用RISC指令系统的CPU。


         显示并行指令集EPIC(Explicitly Parallel Instruction Computers)


   该指令集最重要的思想就是并行处理;如 Itanium和Itanium 2系列。如果按照外形分类:可分为:塔式、机架式、刀片式:


   塔式(TOWER)服务器:既常见的立式和卧式机箱结构的服务器,可放置在普通的办公环境,机箱结构较大,有较大的内部硬盘、冗余电源、冗余风扇的扩容空间,并具备较好的散热。


  • 塔式(Tower)服务器既常见的立式和卧式机箱结构的服务器,可放置在普通的办公环境。机箱结构较大(类似于传统的台式电脑)。


  • 塔式服务器密度低,多为单处理器系统(有少部分为双处理器系统)。系统电源和风扇一般是单配,非冗余可靠性较低。


    机架式(RACK)服务器:机架结构是传统电信机房的设备结构标准,宽度为19英寸,高度以单位“U”计算,每“U”为1.75英寸,即1.75X2.54=4.445cm。


  • 机架(Rack) 采用电信机房的设备结构标准,宽度为19英寸,高度以单位 Unit 计量,每“U”为1.75英寸,即4.445cm。


  • 通常有1U, 2U, 4U和8U之分,其中以2U和1U发货为主,其次是4U和8U. 近期市场也有3U和6U等高度的机架产品出现


    刀片式服务器(Blade Server):通常在一个机箱里可以插入10-20余个“刀片”,其中每一块“刀片”实际上就是一块系统主板。


  • 刀片服务器(Blade)是一种更高密度的服务器平台。一般包括刀片服务器、刀片机框(含背板)及后插板三大部分。不同厂商有不同高度的机框。各厂商机框皆为19英寸宽,可安装在42U的标准机柜上


  • 通常在一个机箱里可以插入数量不等(8~20块)的“刀片”,其中每一块“刀片”实际上就是一块服务器主板


  • 当前市场主流的刀片服务器包括 HP BL460c Gen8, IBM HS23, Dell M820, 华为BH622 V2等。


    按照处理器个数分类 :单路、双路、多路。其中路:一台服务器内部支持的CPU个数;核:多个芯片集成在一个封装内


服务器基准测试体系


    两大基准体系:TPC、SPEC。

    20世纪90年代,TPC(Transaction processing Performance Council,事务处理性能委员会)成立,Benchmark(基准测试)随之走上历史舞台。企业采购服务器时,除主观之外,理性的光芒开始闪耀。


Ø  TPC-C单位为tpmC,对系统在线事务处理能力进行评价,含义为每分钟内系统处理新订单的个数;

Ø  主要模拟企业的MIS、ERP等系统来考验服务器联机业务处理能力


    SPEC(标准性能评估机构)是一个全球性的、权威的第三方应用性能测试组织,它旨在确立、修改以及认定一系列服务器应用性能评估的标准。目前主要包括:


Ø  针对CPU性能的SPEC CPU2000、SPEC CPU2006

Ø  针对Web服务器的SPEC Web2005

Ø  针对高性能计算的SPEC HPC2002与SPEC MPI2006

Ø  针对Java应用的SPEC jAppServer2004与SPEC JBB2005,以及对图形、网络、邮件服务器的测试指标。

 

   四大应用中的基准测试


   1)高性能计算(HPC):Linpack…

   2)在线事务处理(OLTP):TPC-C…

   3)Web服务:SPEC Web2005、TPC-W

   4)Java应用服务器:SPECjbb2005


专用基准测试


1) Oracle基准测试

2) SAP基准测试等

 

服务器硬件构成


   处理器、内存、芯片组、I/O (RAID卡、网卡、HBA卡)、硬盘 、机箱(电源、风扇)。


[收藏] 深度解析服务器科普知识_第2张图片


    CPU是Central Processing Unit(中央微处理器)的缩写,它是计算机中最重要的一个部分,由运算器、控制器和寄存器组成。CPU数据来源:CPU->高速缓存->内存->硬盘;先找缓存,再找内存,最后找硬盘。


Ø  多核CPU:一个处理器封装中有多个处理内核,如双核2个,四核4个。使用多核服务器,可以提高运算效率并延长服务器投资的生命周期。

Ø  主要指标:频率、缓存、前端总线、功耗


   1)频率:主频也叫时钟频率,单位是MHz或GHz,用来表示CPU的运算、处理数据的速度。 CPU的主频=外频×倍频系数。 外频是CPU的基准频率,单位MHz,决定着整块主板的运行速度。理论上倍频是从1.5一直到无限大,以0.5为间距,它可使系统总线工作在相对较低的频率上,而提升CPU速度。


   2)缓存:缓存的结构和大小对CPU速度的影响非常大,因CPU需要重复读取同样数据块,缓存容量的增大,可以大幅提升CPU内部读取数据的命中率,而不用再到内存或者硬盘上寻找,以此提高系统性能。


   3)前端总线:FSB频率(即总线频率)影响CPU与内存直接数据交换速度。数据带宽=(总线频率×数据位宽)/8,如64位的至强Nocona,前端总线是800MHz,其的数据传输最大带宽是6.4GB/秒。

 

   服务器硬件的规划须同步Intel CPU “Tick Tock”节奏,按照大年小年开发。


[收藏] 深度解析服务器科普知识_第3张图片


    2011大年,2012小年,2013大年,2014小年。

    大年: 架构升级,主力销售服务器优先全面换代开发;

    小年: 特性优化,Tick CPU升级、服务器特性优化、补齐、临时市场需求版本。


    内存是用来存放当前正在使用的(即执行中)的数据和程序。所有运行的程序都需要经过内存来执行,如果执行的程序很大或很多,就会导致内存消耗殆尽。


DDR3内存


    DDR3,DDR SDRAM技术中的第三代,和第二代相比能够提供更高的带宽和更低的功耗。DDR3比DDR2最多能够提升66%的带宽、在同等速率下可以降低40%的功耗,DDR3和DDR2同样是240pin设计,但凹槽位置不同。二者不可兼容使用。


[收藏] 深度解析服务器科普知识_第4张图片


    主要典型技术ECC:传统服务器内存仅采用ECC技术,可纠正1-2位内存错误,创新内存容错技术,提供更高的可靠性,包括:


   1)内存热备:热备内存在正常情况下不使用,当工作内存的故障次数达到预设值ECC的最大值,系统自动将故障内存条中的数据传输到热备内存条,故障内存条就不再使用。


   2)内存镜像:内存数据有两个拷贝,避免由于内存故障而导致数据丢失,同时工作内存与镜像内存不处于同一通道,也避免了因内存通道错误而引起的数据丢失。


    内存条类型:UDIMM,RDIMM,LRDIMM


    UDIMM即Unbuffered DIMM,表示控制器输出的地址和控制信号直接到达DIMM上的DRAM芯片。容量频率较低,但同等频率下,因无缓存延迟较小。常见单条容量2GB/4GB,最高主频1.33GHz


       RDIMM即Registered DIMM,表示控制器输出的地址和控制信号经过Reg寄存后输出到DRAM芯片,是目前较为主流的内存条,单条容量在2~32GB之间频率最大可达1.6GHz,性能、价格和可扩展性较好。 


    LRDIMM:Load Reduced DIMM,低负载DIMM。LRDIMM通过使用新的技术和较低的工作电压,达到降低服务器内存总线负载和功耗的目的,并让服务器内存总线可以达到更高的工作频率并大幅提升内存支持容量。相比于通常的RDIMM,Dual-Rank LRDIMM内存的功耗只有其50%。


内存主要指标


      容量(如4/8/16/32GB);

      频率(如800/ 1066/ 1333/ 1600MHz);

      延迟:表示系统进入数据存取操作就绪状态前等待内存响应的时间,它通常用4个连着的阿拉伯数字来表示CL-TRP-TRCD-TRAS,例如“3-4-4-8”,一般 这4个数字越小,表示内存性能越好,但也不绝对,需配合决定。

 

    芯片组是由一组或多组芯片组成,它的主要作用是在处理器、内存及I/O设备间提供接口,是构成主板电路的核心,如果把CPU比喻为大脑,则芯片组相当于心脏,决定了主板的级别和档次。以前也是“南桥”和“北桥”的统称,随着技术的发展,南北桥已合并。

 

    PCI是一种连接电子计算机主板和外部设备的总线标准,用来连接显示卡、声卡、网卡、硬盘控制器等高速外围设备。在数据传输率要求较高的应用中,可以解决原有标准总线数据传输率低带来的瓶颈问题。历经PCI,PCI-X, 目前PCI-E是最新一代的技术。


Ø  PCI-E最新一代的I/O总线技术,PCIe属于高速串行点对点双通道高带宽传输,所连接的设备分配独享通道带宽,不共享资源,突破的系统I/O带宽的瓶颈,主要支持主动电源管理,错误报告,端对端的可靠性传输,热插拔以及服务质量(QOS)等功能。


Ø  PCI-E 2.0:  目前最高的16X 2.0版本可达到10GB/s。


Ø  PCI-E 3.0数据传输率8GHz/s,对PCI-E 2.x/1.x的向下兼容,继续支持2.5GHz、5GHz信号机制。PCI-E 3.0架构单信道(x1)单向带宽即可接近1GB/s,十六信道(x16)双向带宽更是可达32GB/s。


[收藏] 深度解析服务器科普知识_第5张图片

 

    RAID用来实现RAID功能的板卡,通常是由I/O处理器、硬盘控制器、硬盘连接器和缓存等一系列零组件构成的。不同RAID卡支持的RAID功能不同,如 RAlD0、RAID1、RAID3、RAID4、RAID5、RAID10不等。RAID卡可以让很多磁盘驱动器同时传输数据,达到单个磁盘驱动器几倍、几十倍甚至上百倍的速率。同时,Raid卡也提供容错的重要功能。

 

数据组织形式


  • 分块:将一个分区分成多个大小相等的、地址相邻的块,这些块称为分块。它是组成条带的元素。

  • 条带:同一磁盘阵列中的多个磁盘驱动器上的相同“位置”(或者说是相同编号)的分块。

 

数据存取方式


  • 并行存取模式:是把所有磁盘驱动器的主轴马达作精密的控制,使每个磁盘的位置都彼此同步,然后对每一个磁盘驱动器作一个很短的I/O数据传送,使从主机来的每一个I/O 指令,都平均分布到每一个磁盘驱动器,将阵列中每一个磁盘驱动器的性能发挥到最大。适用范围:大型的、数据连续的以长时间顺序访问数据为特征的应用。

  • 独立存取模式:对每个磁盘驱动器的存取都是独立且没有顺序和时间间隔的限制,可同时接收多个I/O Requests,每笔传输的数据量都比较小。适用范围:数据存取频繁,每笔存取数据量较小的应用。

 

服务器管理技术


Ø  IPMI:智能平台管理接口,是一项应用于服务器管理系统设计的标准,由Intel、HP、 Dell和NEC公司于1998年共同提出。用户可利用IPMI监视服务器的物理健康特征,如温度、电压、风扇工作状态、电源状态等。利用此接口标准有助于在不同类服务器系统硬件上实施系统管理,使不同平台的集中管理成为可能。


   工作原理:IPMI的核心是一个专用芯片/控制器BMC,其并不依赖于服务器的处理器、BIOS或操作系统来工作,非常地独立。只要有BMC与IPMI固件其便可开始工作,而BMC通常是一个安装在服务器主板上的独立的板卡,现在也有服务器主板提供对IPMI支持的。使用低级硬件智能管理而不使用操作系统进行管理,具有两个主要优点: 首先,此配置允许进行带外服务器管理;其次,操作系统不必负担传输系统状态数据的任务。

 

Ø  KVM over IP通过网络将远端服务器的显示、鼠标、键盘信号虚拟到本地控制端,通过本地控制端来操作远端服务器。其优点:1)实施、升级成本低,无缝升级;2)灵活集中化管理;3)全球控制、操作简单;4)利用IP技术提供丰富的管理控制;


Ø  虚拟媒体:Virtual Media技术实现把本地端的任何介质都可以映射成为被控服务器的USB设备。采用该技术,IT管理员无需到达服务器现场就可以进行跟数据有关的现场操作及完全控制,如故障诊断、文件传输、给应用程序和OS打补丁等。


      关于服务器虚拟化技术,前期详细总结分享过<虚拟化技术最详细解析>文章,请点击链接查阅详情。

[收藏] 深度解析服务器科普知识_第6张图片

热文阅读

  • Flash闪存颗粒和工艺知识深度解析

  • 聊聊Cloud Foundry开源PaaS云平台



温馨提示:

请搜索“ICT_Architect”“扫一扫”二维码关注公众号,点击原文链接获取更多技术资料

[收藏] 深度解析服务器科普知识_第7张图片

Stay hungry Stay foolish

640?wx_fmt=gif

你可能感兴趣的:([收藏] 深度解析服务器科普知识)