LVM 的含义及优势?/boot 是否可建立在 LVM 卷上,为什么? 参考答案
1)LVM:用来整合磁盘空间和文件系统的一种逻辑机制,通过将多个物理分区/磁盘从逻辑上组合成一个更大的整体,从这个整体中划分出不同的逻辑分区,用来创建文件系统。
2)LVM 的主要优势如下所述:
逻辑分区的大小可以根据需要扩大和缩减,因此生产系统上的文件系统也可以在线改变大小(在卷组容量范围 内),不会导致系统中断
物理存储空间(硬盘、分区)由 LVM 统一组织为卷组,可以方便的加入或移走分区,以扩大或减小卷组的容量, 充分利用硬盘空间
文件系统建立在 LVM 逻辑卷之上,可以跨越分区、跨越磁盘,方便使用
3)/boot 不能建立在 LVM 之上,因为/boot/目录下存放着引导程序,而 Linux 启动不支持从 LVM 卷上读取引导程序。
RAID 的含义及优势?RAID0、RAID1、RAID5 分别指什么、各自的特点? 参考答案
1)RAID:廉价冗余磁盘阵列,指通过硬件/软件技术将多个较小/低速的磁盘整合成一个大磁盘使用的一种存储技术,其不仅可存储数据,还可以实现一定程度的冗余保障,具有“速度快、安全性高”的优势。
2)RAID0、RAID1、RAID5 的含义及特点如下:
RAID0:条带模式,由两个或两个以上的磁盘组成,同一份文档分散在不同的磁盘中,并行写入,提高写效率。RAID1:镜像模式,由至少两个磁盘组成,同一份文件被分别写入到不同的磁盘中,每份磁盘数据一样,实现容 错,提高读效率。
RAID5:分布式奇偶校验的独立磁盘模式,结合 RAID0 和 RAID1 的好处,同时避免它们的缺点。由至少 3 块以上大小相同的磁盘组成,实现冗余。
分区的根本原则是简单、易用、方便批量管理。根据服务器角色定位建议如下:
①单机服务器:如 8G 内存,300G 硬盘
分区: /boot 100-200M,swap 16G,内存大小 8G*2,/ 80G,/var 20G(也可不分),/data 180G(存放 web 及db 数据)
优点:数据盘和系统盘分开,有利于出问题时维护。 RAID 方案:视数据及性能要求,一般可采用 raid5 折中。
②负载均衡器(如 LVS 等)
分区:/boot 100-200M,swap 内存的 1-2 倍,/ , 优点:简单方便,只做转发数据量很少。
RAID 方案:数据量小,重要性高,可采用 RAID1
③负载均衡下的 RS server
分区: /boot 100-200M,swap 内存的 1-2 倍,/ 优点:简单方便,因为有多机,对数据要求低。
RAID 方案:数据量大,重要性不高,有性能要求,数据要求低,可采用 RAID0
④数据库服务器 mysql 及 oracle 如 16/32G 内存
分区:/boot 100-200M,swap 16G,内存的 1 倍,/ 100G,/data 剩余(存放 db 数据) 优点:数据盘和系统盘分开,有利于出问题时维护,及保持数据完整。
RAID 方案:视数据及性能要求主库可采取 raid10/raid5,从库可采用 raid0 提高性能(读写分离的情况下。)
⑤存储服务器
分区:/boot 100-200M,swap 内存的 1-2 倍,/ 100G,/data(存放数据) 优点:此服务器不要分区太多。只做备份,性能要求低。容量要大。 RAID 方案:可采取 sata 盘,raid5
⑥共享存储服务器(如 NFS)
分区:/boot 100-200M,swap 内存的 1-2 倍,/ 100G,/data(存放数据) 优点:此服务器不要分区太多。NFS 共享比存储多的要求就是性能要求。
RAID 方案:视性能及访问要求可以 raid5,raid10,甚至 raid0(要有高可用或双写方案)
⑦监控服务器 cacti,nagios
分区:/boot 100-200M,swap 内存的 1-2 倍,/ 优点:重要性一般,数据要求也一般。
RAID 方案:单盘或双盘 raid1 即可。三盘就 RAID5,看容量要求加盘即可。
Linux 系统是通过 link 的数量来控制文件删除的,只有当一个文件不存在任何 link 的时候,这个文件才会被删除。一般来说每个文件两个 link 计数器来控制 i_count 和 i_nlink。当一个文件被一个程序占用的时候 i_count 就加 1。当文件的硬链接多一个的时候 i_nlink 也加 1。删除一个文件,就是让这个文件,没有进程占用,同时i_link 数量为 0。
①首先确定物理链路是否联通正常。
②查看本机 IP,路由,DNS 的设置情况是否达标。
③telnet 检查服务器的 WEB 有没有开启以及防火墙是否阻拦。
④ping 一下网关,进行最基础的检查,通了,表示能够到达服务器。
⑤测试到网关或路由器的通常情况,先测网关,然后再测路由器一级一级的测试。
⑥测试 ping 公网 ip 的通常情况(记住几个外部 IP),
⑦测试 DNS 的通畅。ping 出对应 IP。
⑧通过以上检查后,还在网管的路由器上进行检查。
答案: 因为 LAMP 具有 Web 资源丰富、轻量、快速开发等特点,与微软的.NET 架构相比,LAMP 具有通用、跨平台、高性能、低价格优势、因此 LAMP 无论是性能、质量还是价格都是企业搭建网站的首选平台。
参考答案
1)部署 LAMP 软件并启动相应服务;
2)创建网站数据库及数据库管理员账户及密码;
3)将 Discuz!压缩包中的 upload 下的内容解压到 httpd 站点根路径下,并调整好适当的权限; 4)最后,在浏览器输入网址后,进行第一次的初始化工作。
参考答案
客户端向 DHCP 服务器请求分配 IP 地址;
DHCP 服务器为客户端分配 IP 地址,告知 Boot server; 客户端向 Boot server 请求下载启动文件;
Boot server 向客户端提供启动文件; 客户端向文件共享服务器请求应答文件; 客户端根据应答文件信息,安装操作系统
答案:第一步:客户机提出域名解析请求,并将该请求发送给本地的域名服务器。第二步:当本地的域名服务器收到请求后,就先查询本地的缓存,如果有该纪
录项,则本地的域名服务器就直接把查询的结果返回。
第三步:如果本地的缓存中没有该纪录,则本地域名服务器就直接把请求发给根域名服务器,然后根域名服务器再返回给本地域名服务器一个所查询域(根的子域)的主域名服务器的地址。
第四步:本地服务器再向上一步返回的域名服务器发送请求,然后接受请求 的服务器查询自己的缓存,如果没有该纪录,则返回相关的下级的域名服务器的地址。
第五步:重复第四步,直到找到正确的纪录。
第六步:本地域名服务器把返回的结果保存到缓存,以备下一次使用,同时还 将结果返回给客户机。
答案:
可以快速构建网络,减小布署周期
与私有网络一样提供安全性,可靠性和可管理性可利用 Internet,无处不连通,处处可接入
简化用户侧的配置和维护工作提高基础资源利用率
于客户可节约使用开销
于运营商可以有效利用基础设施,提供大量、多种业务
答案:
VPN(Virtual Private Network,虚拟私有网) 以共享的公共网络为基础,构建私有的专用网络 以虚拟的连接,而非以物理连接贯通网络
处于私有的管理策略之下,具有独立的地址和路由规划
有所通,有所不通
常见的系统服务及其作用有:
Linux环境下DNS域名解析服务
Linux 环境下实战 Rsync 备份工具及配置 rsync+inotify 实时同步
FTP工作模式是以服务端角度来区分,有主动模式和被动模式。
主动模式:是指由FTP服务端主动向客户端发起连接,服务端端口号为20(用于传输)和21(用于控制),即20端口向客户端的一个大于1024的随机端口传输数据;
被动模式:是指由FTP客户端向服务端发起连接,服务端采用随机端口等待客户端的随机端口来访问,从而传输数据。
Linux环境下FTP文件传输服务
FTP有两种登录方式:匿名登录和授权登录。
使用匿名登录时,用户名为:anonymous,密码为:任何合法email地址;使用授权登录时,用户名为用户在远程FTP系统中的用户帐号,密码为用户在远程系统中的用户密码。
区别:使用匿名登录只能访问FTP目录下的资源,默认配置下只能下载;而授权登录访问的权限大于匿名登录,且上载、下载均可。
FTP文件传输有两种文件传输模式:ASCII模式和binary模式。
ASCII模式用来传输文本文件;其他文件的传输使用binary模式。
新节点通过DHCP获取地址信息的主要流程有如下四个过程:
1、寻找DHCP Server
客户机第一次登录网络的时,向网络上发出一个DHCPDISCOVER广播(包中包含客户机的MAC地址和计算机名等信息)。其源地址为0.0.0.0,目标地址为255.255.255.255。
2、提供IP地址租用
服务端监听到客户机发出的DHCP discover广播后,从剩余地址池中选择最前面的空置IP,连同其它TCP/IP设定,通过广播方式响应给客户端一个DHCP OFFER数据包(包中包含IP地址、子网掩码、地址租期等信息)。源IP地址为DHCP Server的IP地址,目标地址为255.255.255.255。同时,DHCP Server为此客户保留它提供的IP地址,从而不会为其他DHCP客户分配此IP地址。
3、接受IP租约
客户机挑选最先响应的DHCP OFFER(一般是最先到达的那个),同时向网络广播DHCP REQUEST数据包(包中包含客户端的MAC地址、接受的租约中的IP地址、提供此租约的DHCP服务器地址等),声明将接受某一台服务器提供的IP地址。此时,由于还没有得到DHCP Server的最后确认,客户端仍然使用0.0.0.0为源IP地址,255.255.255.255为目标地址进行广播。
4、租约确认
服务端接收到客户端的DHCP REQUEST之后,会广播返回给客户机一个DHCP ACK消息包,表明已经接受客户机的选择,并将这一IP地址的合法租用以及其他的配置信息都放入该广播包发给客户机。
客户机在接收到DHCP ACK广播后,会向网络发送三个针对此IP地址的ARP解析请求以执行冲突检测,查询网络上有没有其它机器使用该IP地址;如果发现该IP地址已经被使用,客户机会发出一个DHCP DECLINE数据包给DHCP Server,拒绝此IP地址租约,并重新发送DHCP discover信息。此时,在DHCP服务器管理控制台中,会显示此IP地址为BAD_ADDRESS。
如果网络上没有其它主机使用此IP地址,则客户机的TCP/IP使用租约中提供的IP地址完成初始化,从而可以和其他网络中的主机进行通讯。
通常DNS查询有如下过程,任何一过程查询成功则返回查询结果,不再进行下一步查询:
1、用户输入网址,优先调取本地hosts查询记录;
2、使用本地dns缓存查询记录;
3、使用网络设置的主dns查询记录;
4、使用dns服务器中的缓存;
5、dns服务器转发查询,转发至上一级ISP DNS服务器,依次循环;
6、若dns服务器未配置转发查询,则将查询需求发至13台根dns;
7、返回查询IP结果给客户端。
缓冲域名服务器
主域名服务器
从域名服务器
网络文件系统是应用层的一种应用服务,它主要应用于Linux和Linux系统、Linux和Unix系统之间的文件或目录的共享。对于用户而言可以通过NFS方便的访问远地的文件系统,使之成为本地文件系统的一部分。采用NFS之后省去了登录的过程,方便了用户访问系统资源。
Samba是在Linux上实现SMB协议的一个免费软件,由服务器及客户端程序构成。SMB(Server Messages Block,信息服务块)是一种在局域网上共享文件和打印机的一种通信协议,它为局域网内的不同计算机之间提供文件及打印机等资源的共享服务。SMB协议是客户机/服务器型协议,客户机通过该协议可以访问服务器上的共享文件系统、打印机及其他资源。主要用于windows与Linux之间的文件共享。
Linux环境下Samba文件共享服务
VPN是指在公共的网络上建立专用网络的技术,但是两个节点间并没有物理上的专用的端到端链路,而是通过广域网或者运营商提供的网络平台之上的逻辑网络,用户数据在逻辑链路中传输,同时VPN采用身份验证和加密技术,充分保证了安全性。常见的VPN有:IPSec VPN、PPTP VPN、L2TP VPN、SSL VPN。
客户端在通过yum安装软件时,会先访问repo仓库,下载仓库的元数据,根据元数据去查询所需要的rpm及其各种依赖关系。之后再在仓库进行相关下载,并自动解决rpm包的依赖关系。同时repo仓库应该是一个文件服务器,一般linux主机在下载过元数据的同时会将其保留在缓存中,以便后续使用。本质上是将底层的物理硬盘抽象的封装起来,然后以逻辑卷的方式呈现给上层应用。
Linux 之 Yum 仓库的配置及使用
LVM是对磁盘分区进行管理的一种机制,建立在硬盘和分区之上的一个逻辑层,用来提高磁盘管理的灵活性。通过LVM可将若干个磁盘分区连接为一个整块的卷组(Volume Group),形成一个存储池。可以在卷组上随意创建逻辑卷(Logical Volumes),并进一步在逻辑卷上创建文件系统,与直接使用物理存储在管理上相比,提供了更好灵活性。
设计概念
在从卷组中移除一个磁盘的时候必须使用reducevg命令,有一定的限制:这个命令要求root权限,并且不允许在快照卷组中使用。
当卷组中的一个磁盘损坏时,整个卷组都会受到影响。
因为加入了额外的操作,存储性能受到影响。
Linux磁盘和文件系统管理
如何在线上环境挂载 LVM 磁盘?
集群磁盘故障,如何在服务器上挂载大于 2T 的磁盘?
RAID通常可以把硬盘整合成一个大磁盘,然后在大磁盘上再分区,提高数据量利用率、冗余性,根据其特点不同,常见的有RAID0、RADI1、RAID5。
RAID 0:指由多个盘组合成逻辑上的一个盘。
优点:读写快,容量利用率最高。
缺点:没有冗余,任何一块磁盘失效将影响到所有数据。
RAID 1:偶数盘,进行镜像。
优点:最高的冗余性。
缺点:浪费资源,成本高,数据利用率低。
RAID 5:奇数盘,至少3块磁盘。分布式奇偶校验的独立磁盘结构,它的奇偶校验码存在于所有磁盘上 任何一个硬盘损坏,都可以根据其它硬盘上的校验位来重建损坏的数据。
优点:实现数据一定程度的冗余,同时也提升数据的读写性能。
缺点:构建此模式需要一定数量的磁盘。
冗余从好到坏:RAID 1 > RAID 10 > RAID 5 > RAID 0
性能从好到坏:RAID 0 > RAID 10 > RAID 5 > RAID 1
成本从低到高:RAID 0 > RAID 5 > RAID 1 > RAID 10
iSCSI是Internet小型计算机系统接口,是一个基于TCP/IP的协议,用于通过IP网络仿真SCSI高性能本地存储总线,从而为远程存储设备提供数据传输和管理。iSCSI跨本地和广域网,通过分布式服务器和数组提供独立于位置的数据存储检索。
iSCSI优点
文件存储:允许将数据组织为传统的文件系统。数据保存在一个文件中,该文件具有名称和一些相关的元数据,例如修改时间戳、所有者和访问权限。提供基于文件的存储使用目录和子目录的层次结构来组织文件的存储方式。
块存储:块存储提供了一个像硬盘驱动器一样工作的存储卷,组织成大小相同的块。通常,要么操作系统用文件系统格式化基于块的存储卷,要么应用程序(如数据库)直接访问它来存储数据。
对象存储:对象存储允许将任意数据和元数据存储为一个单元,并在平面存储池中标记为惟一标识符。使用API存储和检索数据,而不是将数据作为块或在文件系统层次结构中访问。
云计算是一种采用按量付费的模式,基于虚拟化技术,将相应计算资源(如网络、存储等)池化后,提供便捷的、高可用的、高扩展性的、按需的服务(如计算、存储、应用程序和其他 IT 资源)。
云计算通常有如下基本特征:
自主服务:可按需的获取云端的相应资源(主要指公有云);
网路访问:可随时随地使用任何联网终端设备接入云端从而使用相应资源。
资源池化
快速弹性:可方便、快捷地按需获取和释放计算资源。
按量计费
私有云:云平台资源只给某个单位、或某部分用户内部使用。
公有云:云平台资源开放给社会公众服务。
社区云:云平台资源给几个固定的单位内使用。
混合云:两个或两个以上不同类型的云平台。
IaaS:基础设施即服务,云服务商将IT系统的基础设施(如计算资源、存储资源、网络资源)池化后作为服务进行售卖;
PaaS:平台即服务,云服务商将IT系统的平台软件层(数据库、OS、中间件、运行库)作为服务进行售卖;
SaaS:软件即服务,云服务商将IT系统的应用软件层作为服务进行售卖。
云计算:IT能力服务化,按需使用,按量计费,多租户隔离,是一个系统的轻量级管理控制面。
虚拟化:环境隔离,资源复用,降低隔离损耗,提升运行性能,提供高级虚拟化特性。
虚拟化是实现云计算的技术支撑之一,但并非云计算的核心关注点。
KVM指基于内核的虚拟机(Kernel-based Virtual Machine),它是一个Linux的一个内核模块,该内核模块使得Linux变成了一个 Hypervisor,从而实现虚拟化:
Rsync是Linux系统中的数据镜像备份工具,通过rsync可以将本地系统数据通过网络备份到任何远程主机上。rysnc不仅仅能对不同位置的文件和目录进行同步,还可以差异计算,压缩传输文件来最小化数据传输,和cp命令相比,rysnc的优势在于高效的差异算法。并且,rysnc还支持网络数据传输,在复制文件的同时,会把源端与目的端的文件进行比较,只有当文件不一样的时候在进行复制。具有以下特性:
iptables防火墙是一层层过滤的,实际是按照配置规则的顺序从上到下,从前到后进行过滤的。
如果匹配上了规则,即明确表明是阻止还是通过,此时数据包就不能向下匹配新规则了。
如果所有规则中没有明确表明是阻止还是通过这个数据包,也就是没有匹配上规则,向下进行匹配,直到匹配默认规则得到明确的阻止还是通过。
防火墙的默认规则是对应链的所有的规则执行完才会执行的,即最后执行的规则。
iptables有5个链:PREROUTING、INPUT、FORWARD、OUTPUT、POSTROUTING。
iptables有4个表:Filter、NAT、Mangle、RAW。
Filter:主要和主机自身有关,真正负责主机防火墙功能(过滤流入流出主机的数据包)。filter表是iptables默认使用的表。filter定义了三个链(chains):
nat:负责网络地址转换,即来源与目的ip地址的port的转换,一般用于局域网共享上网或特殊的端口转换服务相关,nat功能就相当于网络的acl控制。nat定义了三个链(chains):
Mangle:实现流量整形,主要用于修改数据包的ToS( Type of Service ,服务类型)、TTL(Time toLive,生存周期)以及为数据包设置 Mark 标记,以实现 QoS(Quality of Service,服务质量)调整以及策略路由等应用。
4个表的优先级由高到低的顺序为:raw–>mangle–>nat–>filter。
iptables利用表和链处理每个经过的数据包,具体流程(步骤)如下:
1、数据包到达网络接口,比如 eth0。
2、进入 raw 表的 PREROUTING 链,这个链的作用是在连接跟踪之前处理数据包。
3、如果进行了连接跟踪,则进行处理。
4、进入 mangle 表的 PREROUTING 链,在此可以修改数据包,比如 TOS 等。
5、进入 nat 表的 PREROUTING 链,可以在此做DNAT,但不做过滤。
6、决定路由,看是交给本地主机还是转发给其它主机,即决定是否继续往内还是往外。
到了这里需要分两种不同的情况进行讨论了。
若数据包决定要转发给其它主机,这时候它会依次经过:
加粗样式
1、进入 mangle 表的 FORWARD 链,这里是在第一次路由(即步骤6)决定之后,在进行最后的路由决定之前,仍然可以对数据包进行某些修改。
2、进入 filter 表的 FORWARD 链,这里可以对所有转发的数据包进行过滤。
3、进入 mangle 表的 POSTROUTING 链,这里将完成了所有的路由决定,但数据包仍然在本地主机,还可以进行某些修改。
4、进入 nat 表的 POSTROUTING 链,这里一般都是用来做 SNAT ,不在这里进行过滤。
5、进入出去的网络接口,然后进行发送。
另一种情况是,数据包就是发给本地主机的,那么它会依次穿过:
1、进入 mangle 表的 INPUT 链,这里是在第一次路由(即步骤6)决定之后,在进行最后的路由决定之前,仍然可以对数据包进行某些修改。
2、进入 filter 表的 INPUT 链,这里可以对流入的所有数据包进行过滤,无论它来自哪个网络接口。
3、交给本地主机的应用程序进行处理。
4、处理完毕后进行路由决定,看该往那里发出。
5、进入 raw 表的 OUTPUT 链,这里是在连接跟踪处理本地的数据包之前。
6、连接跟踪对本地的数据包进行处理。
7、进入 mangle 表的 OUTPUT 链,这里可以修改数据包,但不做过滤。
8、进入 nat 表的 OUTPUT 链,可以对防火墙自己发出的数据做 NAT 。
9、再次进行路由决定。
10、进入 filter 表的 OUTPUT 链,可以对本地出去的数据包进行过滤。
11、进入 mangle 表的 POSTROUTING 链,同上一种情况的第9步。
12、进入 nat 表的 POSTROUTING 链,同上一种情况的第10步。
13、进入出去的网络接口,然后进行发送。
参考答案优势:
通过缓存增加访问速度; 提高网络的安全性;
Squid 历史悠久,技术积淀深厚,同时无需支付任何费用。缺点:
性能不足,借助于 windows、linux 等通用操作系统才能实现上网加速等功能。
参考答案
本地 Cache 加速,提升访问速度和稳定性
网站镜像,消除不同地区、运营商网络互连的问题 智能 DNS 解析,自动选择最快的 Cache 服务器
负载优化,减轻后端源 Web 服务器的压力负载集群抗攻击,有效降低 DDOS 攻击的影响
答案:
(1)它可以高并发连接:官方测试连接数(5 万)实际生产环境中可支撑(2~4 万)
(2)内存消耗少
(3)成本低廉
(4)其他理由(配置文件非常简单,支持 Rewrite 重写规则)
(5)内置的健康检查功能
(6)节省宽带(支持 GZIP 压缩,可以添加浏览器本地缓存的 Header 头)
(7)稳定性高
(8)支持热部署
答案:CDN 的实现分为三类:镜像、高速缓存、专线。
(1)镜像站点(Mirror Site):是最常见的,它让内容直接发布,适用于静态和准动态的数据同步。但是购买和维护新服务器的费用较高还必须在各个地区设置镜像服务器,配备专业技术人员进行管理与维护。对于大型网站来说,更新所用的带宽成本也大大提高了。
(2)高速缓存:成本较低,适用于静态内容。Internet 的统计表明,超过 80%的用户经常访问的是 20%的网站的内容,在这个规律下, 缓存服务器可以处理大部分客户的静态请求,而原始的服务器只需处理约 20%左右的非缓存请求和动态请求,于是大大加快了客户请求的响应时间,并降低了原始服务器的负载。
(3)专线:让用户直接访问数据源,可以实现数据的动态同步。
答案:
若是忽略各种缓存,传统的网站访问过程为:
1.用户在浏览器中输入要访问的域名;
2.浏览器向域名解析服务器发出解析请求,获得此域名对应的 IP 地址;
3.浏览器利用所得到的 IP 地址,向该 IP 对应的服务器发出访问请求;
4.服务器对此响应,将数据回传至用户浏览器端显示出来。
与传统访问方式不同,CDN 网络则是在用户和服务器之间增加 Cache 层,将用户的访问请求引导到 Cache 节点而不是服务器源站点,要实现这一方式,主要是通过接管 DNS 实现。
使用 CDN 缓存后的网站访问过程演变为:
1.用户在浏览器中输入要访问的域名;
2.浏览器向域名解析服务器发出解析请求,由于 CDN 对域名解析过程进行了调整,所以用户端一般得到的是该域名对应的 CNAME 记录,此时浏览器需要再次对获得的 CNAME 域名进行解析才能得到缓存服务器实际的 IP 地址。在此过程中,全局负载均衡 DNS 解析服务器会根据用户端的源 IP 地址,如地理位置(深圳还是上海)、接入网类型(电信还是网通)将用户的访问请求定位到离用户路由最短、位置最近、负载最轻的 Cache 节点(缓存服务
器)上,实现就近定位。定位优先原则可按位置、可按路由、也可按负载等等;
3.再次解析后浏览器得到该域名 CDN 缓存服务器的实际 IP 地址,向缓存服务器发出访问请求;
4.缓存服务器根据浏览器提供的域名,通过 Cache 内部专用 DNS 解析得到此域名源服务器的真实 IP 地址,再由缓存服务器向此真实 IP 地址提交访问请求;
5.缓存服务器从真实 IP 地址得到内容后,一方面在本地进行保存,以备以后使用,同时把得到的数据发送到客户端浏览器,完成访问的响应过程;
6.用户端得到由缓存服务器传回的数据后显示出来,至此完成整个域名访问过程;
不论是否使用 CDN 网络,用户客户端设置不需做任何改变,直接使用被加速网站原有域名访问即可。对于要加速的网站,只需修改整个访问过程中的域名解析部分,便能实现透明的网络加速服务。
参考答案
VS/NAT:通过网络地址转换实现的虚拟服务器。Director 将用户请求报文的目的地址改成选定的 Real Server 地址后,转发给 Real Server。大并发访问时,调度器的性能成为瓶颈。
VS/DR:直接使用路由技术实现虚拟服务器。通过改写请求报文的 MAC 地址,将请求发至 Real Server,Real Server 直接响应客户端。
VS/TUN:通过隧道方式实现虚拟服务器。Director 采用隧道技术将请求发至 Real Server 后,Real Server 直接响应客户端。
参考答案
轮询(Round Robin)
加权轮询(Weighted Round Robin) 最少连接(Least Connections)
加权最少连接( Weighted Least Connections )
基于局部性的最少链接(Locality-Based Least Connections)
带复制的基于局部性最少链接(Locality-Based Least Connections with Replication) 目标地址散列(Destination Hashing)
源地址散列(Source Hashing)
最短的期望的延迟(Shortest Expected Delay Scheduling SED) 最少队列调度(Never Queue Scheduling NQ)
参考答案
mode http:客户端请求被深度分析后再发往服务器。
mode tcp:在客户端与服务器这间建立全双工会话,不检查第七层信息。mode health:仅做健康状态检查,已经不建议使用。
参考答案
一次连接可以传输多个请求;
客户端需要知道传输内容的长度,以避免无限期的等待传输结束; 降低两个 HTTP 事务间的延迟;
需要相对较少的服务器资源。
参考答案
default:为后续的其他部分设置缺省参数,缺省参数可以被后续部分重置; frontend:描述集群接收客户端请求的信息集合;
backend:描述转发链接的后端服务器集合;
listen:把 frontend 和 backend 结合到一起的完整声明。
查看 iptables 默认策略的指令是什么?
答案: iptables -L
iptables 开放端口 80 端口的语句怎么写?
答案: iptables -I INPUT -p tcp --dport 80 -j ACCEPT
将本地 80 端口的请求转发到 8080 端口, 当前主机 IP 为 192.168.10.1
答案:
Iptables -A PREROUTING -d 124.42.60.109 -p tcp -m tcp –dport 80 -j DNAT –to- destination 10.0.0.18:9000
Linux 中每周六的 04 点 20 分删除 /tmp/log_* 文件,怎样实现?
答案:20 04 * * 6 rm -rf /tmp/log_*
(1)port 1080
(2)UserDir userdoc
(3)DocumentRoot /home/htdocs (4)<Directory /home/htdocs/inside>;
Options Indexes FollowSymLinks AllowOverride None
Order deny,allow deny from all
allow from 192.168.1.5
</Directory>;
(5)Server Type Standlone
答案:
Apache 服务器配置行含义如下:
(1)将 apache 服务器的端口号设定为 1080;
(2)设定用户网页目录为 userdoc;
(3)设定 apache 服务器的网页根目录:/home/htdocs;
(4)在此 apache 服务器上设定一个目录/home/htdocs/inside,且此目录只允许 IP 地 址为 192.168.1.5 的主机访问;
(5)定义 apache 服务器以独立进程的方式运行