目前高端服务器使用的专业网络存储技术大概分为四种,有DAS、NAS、SAN、iscsl,它们可以使用RAID阵列提供高效的安全存储空间。
一、直接附加存储(DAS)
直接附加存储是指将存储设备通过SCSI接口直接连接到一台服务器上使用。DAS购置成本低,配置简单,使用过程和使用本机硬盘并无太大差别,对于服务器的要求仅仅是一个外接的SCSI口,因此对于小型企业很有吸引力。但是DAS也存在诸多问题:(1)服务器本身容易成为系统瓶颈;(2)服务器发生故障,数据不可访问;(3)对于存在多个服务器的系统来说,设备分散,不便管理。同时多台服务器使用DAS时,存储空间不能在服务器之间动态分配,可能造成相当的资源浪费;(4)数据备份操作复杂。
二、网络附加存储(NAS)
NAS实际是一种带有瘦服务器的存储设备。这个瘦服务器实际是一台网络文件服务器。NAS设备直接连接到TCP/IP网络上,网络服务器通过TCP/IP网络存取管理数据。NAS作为一种瘦服务器系统,易于安装和部署,管理使用也很方便。同时由于可以允许客户机不通过服务器直接在NAS中存取数据,因此对服务器来说可以减少系统开销。NAS为异构平台使用统一存储系统提供了解决方案。由于NAS只需要在一个基本的磁盘阵列柜外增加一套瘦服务器系统,对硬件要求很低,软件成本也不高,甚至可以使用免费的LINUX解决方案,成本只比直接附加存储略高。NAS存在的主要问题是:(1)由于存储数据通过普通数据网络传输,因此易受网络上其它流量的影响。当网络上有其它大数据流量时会严重影响系统性能;(2)由于存储数据通过普通数据网络传输,因此容易产生数据泄漏等安全问题;(3)存储只能以文件方式访问,而不能像普通文件系统一样直接访问物理数据块,因此会在某些情况下严重影响系统效率,比如大型数据库就不能使用NAS.
三、存储区域网(SAN)
SAN实际是一种专门为存储建立的独立于TCP/IP网络之外的专用网络。目前一般的SAN提供2Gb/S到4Gb/S的传输数率,同时SAN网络独立于数据网络存在,因此存取速度很快,另外SAN一般采用高端的RAID阵列,使SAN的性能在几种专业网络存储技术中傲视群雄。SAN由于其基础是一个专用网络,因此扩展性很强,不管是在一个SAN系统中增加一定的存储空间还是增加几台使用存储空间的服务器都非常方便。通过SAN接口的磁带机,SAN系统可以方便高效的实现数据的集中备份。SAN作为一种新兴的存储方式,是未来存储技术的发展方向,但是,它也存在一些缺点:(1)价格昂贵。不论是SAN阵列柜还是SAN必须的光纤通道交换机价格都是十分昂贵的,就连服务器上使用的光通道卡的价格也是不容易被小型商业企业所接受的;(2)需要单独建立光纤网络,异地扩展比较困难;
四、iSCSI
使用专门的存储区域网成本很高,而利用普通的数据网来传输SCSI数据实现和SAN相似的功能可以大大的降低成本,同时提高系统的灵活性。iSCSI就是这样一种技术,它利用普通的TCP/IP网来传输本来用存储区域网来传输的SCSI数据块。iSCSI的成本相对SAN来说要低不少。随着千兆网的普及,万兆网也逐渐的进入主流,使iSCSI的速度相对SAN来说并没有太大的劣势。iSCSI目前存在的主要问题是:(1)新兴的技术,提供完整解决方案的厂商较少,对管理者技术要求高;(2)通过普通网卡存取iSCSI数据时,解码成SCSI需要CPU进行运算,增加了系统性能开销,如果采用专门的iSCSI网卡虽然可以减少系统性能开销,但会大大增加成本;(3)使用数据网络进行存取,存取速度冗余受网络运行状况的影响。
网络存储主要技术
目前磁盘存储市场上,存储分类根据服务器类型分为:封闭系统的存储和开放系统的存储。
1、封闭系统主要指大型机,AS400等服务器,开放系统指基于包括Windows、UNIX、Linux等操作系统的服务器;
2、开放系统的存储分为:内置存储和外挂存储;
开放系统的外挂存储根据连接的方式分为:直连式存储(Direct-Attached Storage,简称DAS)和网络化存储(Fabric-Attached Storage,简称FAS);
开放系统的网络化存储根据传输协议又分为:网络接入存储(Network-Attached Storage,简称NAS)和存储区域网络(Storage Area Network,简称SAN)。
由于目前绝大部分用户采用的是开放系统,其外挂存储占有目前磁盘存储市场的70%以上, 因此本文主要针对开放系统的外挂存储进行论述说明。
DAS
Direct Attached Storage,直接附加存储,存储设备通过SCSI接口电缆直接连接到服务器的,存储设备不带有任何操作系统。它依赖于服务器,存储设备就是将硬件设备堆叠起来的。DAS也可称为SAS(Server Attached storage,即服务器附加存储)。
DAS具有如下特性:
DAS设备不带有任何操作系统,文件系统位于服务器端,因此是以块级别进行数据传输
它是通过SCSI接口电缆与服务器相连,因此,会增加服务器的I/O操作,占用cpu,降低网络和服务性能。
不支持多种系统的数据共享
DAS存储设备一般适用于中小型企业
NAS
Network Attached Storage,网络附加存储,NAS是基于IP协议的文件级数据存储,支持现有的网络技术,比如以太网,FDDI等。NAS设备完全是以数据为中心,将存储设备和服务器彻底隔离,集中管理数据,从而有效释放带宽,大大提高了网络整体性能。
NAS设备是一种特殊的数据存储服务器,它内嵌系统软件,可以提供NFS、SMB/CIFS的文件共享。
NAS设备的特点:
由于NAS设备内嵌系统,因此数据是以文件级别的方式进行传输
由于是一个单独的存储服务器,因此只负责数据的传输,减少了服务器的I/O操作,因此,大大提高了网络性能。
NAS支持标准的网络文件系统,支持跨平台存储。
服务器只存储数据,可以实现集中化的管理数据
NAS存储设备适用于中小型企业
SAN
Storage Area Network,存储区域网络,这是一个共享的高速存储网络,存储设备位于服务器的后端,且存储设备和服务器之间一般通过光钎(FC)交换机相连,因此传输速率比较快。当然也可以通过IP网络来继续传输,不过这对于网络带宽来说要求非常大的。对于SAN来说,存储设备和服务器完全分离,服务器通过光钎交换机(或IP网络)与不同地区的各个存储设备相连起来,可以实现集中化的管理。
SAN具有的特点:
由于文件系统位于服务器上,本身不带有任何操作系统,因此数据是以块级别的方式进行传输
由于存储服务器使用光接口,因此传输速率快、高
可以将不同区域的服务器通过光钎交换机相连起来,集中化的进行管理
由于存储设备位于不同区域,因此可实现大容量存储数据共享
由于组件一套SAN系统比较昂贵,因此适用于大型企业。如今我们所涉及的 SAN (Storage Area Network),其实现数据通信的主要要求是:
数据存储系统的合并;
数据备份;
服务器群集;
复制;
紧急情况下的数据恢复
实现SAN有2种方式:一是称为FC-SAN,通过光钎交换机来实现SAN系统;另一种称为IP-SAN,通过现有的IP网络来实现SAN系统。
两种实现SAN的方式对比如下:
FC-SANIP-SAN
连接成本物理覆盖范围有限,容易形成存储孤岛,会有数据的备份、迁移等问题利用了无处不在的IP网络,跨越了距离的限制
成本有出色的性能,但是硬件投入成本比较高,无法使中低端用户使用充分利用现有的TCP/IP网络,包括双绞线、路由器、以太网交换机,降低存储连接设备的投资
技术FC存储设备,连接设备的管理和使用需要专业人士,需要经过专业培训IT部门的知识可以得到有效地沿用,也容易维护和管理
兼容性FC构建SAN的标准不统一,各个FC-SAN产品生产厂商所生产的设备不兼容以IP网络技术为基础,具有良好的兼容性和互操作性
NAS与SAN的分析与比较
针对I/O是整个网络系统效率低下的瓶颈问题,专家们提出了许多种解决办法。
其中抓住症结并经过实践检验为最有效的办法是:将数据从通用的应用服务器中分离出来以简化存储管理。
由图可知原来存在的问题:每个新的应用服务器都要有它自己的存储器。这样造成数据处理复杂,随着应用服务器的不断增加,网络系统效率会急剧下降。解决方案:
从图可看出:将存储器从应用服务器中分离出来,进行集中管理。这就是所说的存储网络(Storage Networks)。
使用存储网络的好处
统一性:形散神不散,在逻辑上是完全一体的。
实现数据集中管理,因为它们才是企业真正的命脉。
容易扩充,即收缩性很强。
具有容错功能,整个网络无单点故障。
专家们针对这一办法又采取了两种不同的实现手段,即NAS(Network Attached Storage)网络接入存储和SAN(Storage Area Networks)存储区域网络。
NAS:用户通过TCP/IP协议访问数据,采用业界标准文件共享协议如:NFS、HTTP、CIFS实现共享。
SAN:通过专用光纤通道交换机访问数据,采用SCSI、FC-AL接口。
NAS和SAN最本质的不同就是文件管理系统在哪里
SAN结构中,文件管理系统(FS)还是分别在每一个应用服务器上;而NAS则是每个应用服务器通过网络共享协议(如:NFS、CIFS)使用同一个文件管理系统。
换句话说:NAS和SAN存储系统的区别是NAS有自己的文件系统管理。
NAS是将目光集中在应用、用户和文件以及它们共享的数据上。
SAN是将目光集中在磁盘、磁带以及联接它们的可靠的基础结构。
将来从桌面系统到数据集中管理到存储设备的全面解决方案将是NAS加SAN
为什么写NAS就不得不提到SAN呢?原因之一是它们的名字有69关系,容易混淆;之二是NAS和SAN既竞争又合作,很多高端NAS的后端存储就是SAN。NAS和SAN的整合也是存储设备的发展趋势,比如EMC的新产品VNX系列。右图展示了一台NAS的逻辑结构:双虚线框表示一台NAS。它通过Fibre Channel从后端SAN获得存储空间,创建文件系统后,再通过以太网共享给服务器。SAN提供的存储单位是LUN,属于block级别的。经过NAS创建成文件系统后,就变成文件级别的了。
如果上边的逻辑图还不够清楚,可以看看下面的物理连接。NAS通过FC Switch连到SAN上,应用服务器再通过Ethernet Switch连到NAS上。同时SAN也直接提供block级别的存储给应用服务器。
关于NAS和SAN的区别,可以列出很多来。比如带宽大小,距离长短,共享优劣等等。几乎所有区别都是由两个因素衍生出来的。一个是FC与Ethernet,另一个是block与file system。简而言之,如果用户需要通过FC访问block,就用SAN;如果需要通过Ethernet访问file system,就用NAS。
NAS实现类型对比
NAS主要有三种类型的实现:统一式、网关式和横向扩展式(Scale-out)。统一NAS使用统一的存储平台将基于NAS和基于SAN的数据访问合并,提供了可以同时管理二种环境的统一管理界面。网关NAS使用外部存储来存取数据,网关NAS和存储的管理操作是分开的。横向扩展式(Scale-out)NAS可组合多个节点,形成一个集群NAS系统。下面将对比三种不同NAS实现类型。
统一NAS
统一NAS提供文件服务,同时负责存储文件数据,并提供块数据访问。它支持用于文件访问的CIFS(Common Internet File System,通用Internet文件系统)和NFS(Network File System,网络文件系统)协议,以及用于块级访问的SCSI(Small Computer System Interface,小型计算机系统接口)和FC(Fibre Channel )协议。因为基于NAS和基于SAN的访问合并到同一个存储平台,统一NAS降低了企业的基础设施成本和管理成本。
统一NAS的一个系统中包括了一个或多个NAS头及存储。NAS头与存储控制器连接,提供到存储的访问。存储控制器提供了与iSCSI和FC主机的连接。存储可使用不同的磁盘类型(例如SAS、ATA、FC和闪存盘),以满足不同的负载需求。下图显示的是一个统一NAS连接的例子。
网关式NAS
网关式NAS设备包含一个或多个NAS头,使用外部存储或者独立管理的存储。与统一NAS相似,存储是与其他使用块级I/O的应用共享的。这种解决方案的管理功能比统一存储复杂,因为NAS头和存储器的管理任务是分开的。网关式解决方案可以利用FC基础设施,例如:交换机等,访问SAN存储阵列或直连式存储阵列。
网关式NAS的扩展性比统一NAS好,因为NAS头和存储阵列可以独立地根据需求进行扩展升级。例如:可以通过增加NAS头的方式提升NAS设备的性能。当存储容量达到上限时,网关NAS设备可以独立于NAS头对SAN进行扩展,增加存储容量。网关式NAS通过在SAN环境中进行存储共享,提高了存储资源的利用率。下图是一个网关式NAS连接的例子。
横向扩展式(Scale-out)NAS
统一NAS和网关NAS实现都提供了一定的扩展性能,可以在数据增长和性能需求提高时对资源进行扩展。对NAS设备进行扩展主要涉及增加CPU、内存和存储容量。扩展性受制于NAS设备对后续增加NAS头和存储容量的支持能力。
横向扩展式(Scale-out)NAS可组合多个节点,形成一个集群NAS系统。只需要向集群NAS架构中添加节点即可实现资源的扩展。整个集群可看作是一个NAS设备,资源是集中管理的。在需要扩大容量或提高性能的时候,可向集群中添加节点,这不会造成停机下线的情况。横向扩展NAS可以集合许多性能和可用性中等的节点,形成集群系统拥有更好的总体性能和可用性。它还有易使用、成本低以及理论上可无限扩展的优势。
横向扩展式(Scale-out)NAS在集群中的所有节点上创建了一个单一文件系统。节点的所有信息都可以彼此共享,因此连接到任何节点的客户端都可以访问整个文件系统。集群NAS将数据在所有节点间分条,同时使用镜像或效验方式进行数据保护。数据从客户端发送到集群时,数据被分割,并行分配给不同节点。当客户端发送文件读取请求时,集群NAS从多个节点获取相应的块,将他们组合成文件,然后将文件发给客户端。随着节点的增加,文件系统实现动态扩展,数据在节点之间均衡分布。每个增加的节点都增加了整个集群的存储、内存、CPU和网络能力。因此,整个集群的性能都得到提升。
横向扩展式(Scale-out)NAS适合解决企业和客户当前面临的大数据问题。它统一管理和存储高速增长的数据,同时又十分灵活,能满足各种性能需求。下图显示的是一个横向扩展式(Scale-out)NAS连接的例子。
三种存储技术的对比
提问:介绍一下NetApp存储
netapp存储是一个以高可用,高安全、高性能、以及强扩展的存储,现在市场上主流为NAS 存储、SAN存储、混合存储、分布式存储
提问:高可用有哪些
存储在不同层次上都存在冗余架构,分别是cluster HA node 双机头 双路径 逻辑端口绑定 trunk raid 等
提问:介绍一下NetApp的存储功能
存储主要的功能为安全有效的将数据存入介质、并提供方便简洁的访问端口或者时协议,使用户更加安全有效的访问介质的数据
提问:存储有那些数据保护
存储的数据保护可以分为:snapshot snapmirror snapvault 第三方备份等
提问:能否节点介绍一下这几个数据保护
1、snapshot 为快照。它主要是将存储中的vol在某个规定的时间点做一个快照、当前第一份快照不占容量且以指针的形式指向原数据,当源数据
出现变动时,快照将把原先的变动指针数据保留在第一份快照中,当再次触发快照时,此时的快照指向现有原数据。
2、snapmirror 它是基于快照来将数据传输的一个技术,snapmirror会不断的更新镜像快照数据,以确保数据的一致性和最新性,一般
应用在企业数据灾备恢复和数据分布解决的方案中当然也可以作为数据传输的一种手段。
3、snapvault 首先它是使用块级增量复制和snapshot副本提供的disk to disk 的备份,工作原理为复制上次备份以来发生变化的数据
块,同时snapvault支持被备份系统存储可以是netapp也可以是其他第三方开放系统(老版本使用open system snapvault软件),但是备份存
储必须是netapp。
提问:能否介绍一下snapmirror和snapvault的区别和应用场景
首先mirror 场景是灾备,vault是备份。概念不一样。 其次mirror可以同步而vault不能。而且mirror是保留最新的快照且维持数据最新
而vault是保留不同时间增值的快照。简单来说就是mirror是源端目前现有的数据,vault是保留历史所有的数据。
提问:存储是如何做到断电不丢失数据
首先存储里面有nvrom,将数据写入的时候同时也会写入nvrom,当存储故障时,数据会由nvrom写入磁盘
提问:简述一下NetApp存储的内部结构
1、存储分为两大件:存储控制器、磁盘阵列
2、控制器和磁盘柜通过SAS现做链接保障2条路径
3、控制器存在冗余即两个node ,node之间通过cluster interconnect端口网络级联
4、控制器中携带板载端口或扩展端口提供远程数据访问
5、磁盘以raid的形式提供物理层数据保护并形成aggr的概念
6、存储提供物理层aggr 逻辑层vol lun 提供数据服务。
7、通过CIFS NFS ISCSI FC协议提供数据服务
提问:存储如何使用CIFS NFS ISCSI FC 提供服务的
1、CIFS 是利用TCP/IP协议完成网络数据访问,通常应用于WINDOWS平台。
2、NFS 是利用TCP/IP协议完成网络数据访问,通常应用于UNIX等多平台。
3、ISCSI 首先他是基于因特网及SCSI-3技术,利用TCP/IP和3260端口作为渠道将数据发送出去,主要使用qin
4、FC 是利用光纤通道技术,配合光纤交换机和服务器将磁盘共享特定主机 主要利用WWPN
提问:介绍一下存储的raid类型
raid即磁盘阵列,通过条带化方式将多块磁盘绑定在一起,提高磁盘的读写效率和可靠性安全性,常见raid类型由raid0 raid1 raid4
raid_dp raid5 raid10 等。其中raid0 为数据条带化但无冗余保护,最少2块盘。raid1 通过mirror数据做冗余保护最少2块盘。raid4
存在校验盘以及数据条带化写入,最少2块盘。raid_dp netapp独有的模式采用奇偶校验的方式部署磁盘,拥有1块奇偶校验和1块校验盘
,最少需要4(包括1个space)块盘。raid5为条带化数据分布和通过校验数据来保护数据,特别之处在于它的校验是分布在所有磁盘中
允许坏一块磁盘。raid10简单说就是raid1和raid0的组合,先做镜像再做条带化,允许坏多块盘但是不能使一对磁盘坏(做镜像的盘)
提问:当磁盘损坏时数据使如何恢复的
1、预先拷贝或者说预先替换,在netapp存储中当存储或者人为发现磁盘出现故障(没有坏彻底)时优先将损坏磁盘的数据replace到热备盘中
,拷贝完成则用好的磁盘替换故障磁盘
2、当磁盘彻底损坏,存储会做数据重构,按照raid的校验算法将损坏磁盘的数据重构到热备盘中。
提问:简单介绍flash cache 和flash pool
1、NetApp存储中flash cache是一块PCIe接口的内存卡是插在存储槽位上的,而pool是使用SSD磁盘构建的。
2、cache 是用于提高随机读取密集型工作负载性能的,而pool是提高该聚合级别的读写缓存功能
提问:简单描述SAN的组网方式
1、SAN分为2种:IP-SAN ISCSI协议 FC-SAN FC 协议
2、SAN的组网方式分为 点到点 单交换 双交换
3、IP-SAN 是通过IP 而FC-SAN 是通过16G光纤交换机
一、Raid的基本原理
RAID ( Redundant Array of Independent Disks )即独立磁盘冗余阵列,通常简称为磁盘阵列。简单地说, RAID 是由多个独立的高性能磁盘驱动器组成的磁盘子系统,从而提供比单个磁盘更高的存储性能和数据冗余的技术。在服务器整个系统中, RAID 被看作是由两个或更多磁盘组成的存储空间,通过并发地在多个磁盘上读写数据来提高存储系统的 I/O 性能。
二、常见的RAID类型
1)RAID 0
把连续的数据分散到多个磁盘上存取,系统有数据请求就可以被多个磁盘并行的执行,每个磁盘执行属于它自己的那部分数据请求。如果要做RAID 0,一台服务器至少需要两块硬盘,其读写速度是一块硬盘的两倍。如果有N块硬盘,那么读写速度就是一块硬盘的N倍。虽然读写速度可以提高,但由于没有数据备份功能,因此安全性会低很多。
2)RAID 1
通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据。当原始数据繁忙时,可直接从镜像拷贝中读取数据。同样地,要做RAID1也是至少需要两块硬盘,单读取数据时,一块会被读取,一块会被用作备份数据。其数据安全性就会较高,但是磁盘空间利用率是比较低的。
3)RAID 5
RAID 5把数据和与其相对应的奇偶校验信息存储到组成RAID5的各个磁盘上,并且奇偶校验信息和相对应的数据分别存储于不同的磁盘上。当其中一个磁盘(最多一个)数据损坏后,利用剩下的数据和相应的奇偶校验信息去恢复被损坏的数据。RAID 5具有和RAID 0相近似的数据读取速度,且磁盘空间利用率要比RAID 1高,存储成本相对较低,是目前运用较多的一种解决方案。用户选择做RAID 5的话,至少需要三块硬盘。
三、RAID类型对比