系统架构师笔记——操作系统

1.操作系统

根据考试大纲要求,在操作系统方面,要求考生掌握以下知识点:
(1)操作系统的类型和结构;
(2)操作系统基本原理;
(3)网络操作系统及网络管理;
(4)嵌入式操作系统与实时操作系统。
1.操作系统的类型
(1)批处理操作系统: 用户脱机使用计算机、成批处理、 多道程序运行,已淘汰。
(2)分时操作系统:多个用户同时以会话方式控制自己程序的运行,按时间片轮流把处理机分配给各联机作业使用,具有交互性、多用户同时性、独立性,典型如Unix和Linux。
(3)实时操作系统:系统应用紧密结合,不强调资源利用率,提供即时响应、可靠性和完整性。
(4)网络操作系统:按照网络架构的各个协议标准进行开发,实现互操作性、协作处理。
(5)分布式操作系统:一个统一的操作系统实现系统操作的统一性。
2. 操作系统的结构
(1)无序结构:面向过程, 系统由许多模块组成,模块之间相对独立通过接口相互调用,缩短了系统的开发周期,但模块之间调用关系复杂、相互依赖,分析、移植和维护系统较易出错
(2)层次结构: 操作系统分解 若干个单向依赖的层次,结构清晰,简化接口设计,有利于系统功能的增加或删 改,易于保证可靠性,也便于维护和移植。
(3)面向对象结构:适用于网络操作系统和分布式操作系统。
(4)对称多处理结构:所有处理机运行且共享同一内存,适合紧耦合的多处理机系统。
(5)微内核结构:系统的公共部分抽象出来,形成一个底层核心,其他功能以服务器形式建立在微内核之上,具有良好的模块化和结构化特征,核心工作在核心态。优点在于接口统一、可伸缩性好、可移植性好、实时性好、可靠性高、支持分布式系统。
3.进程线程
进程是进行 系统资源分配、调度和管理的最小单位
线程是处理器分配资源的最小单位
PCB是进程存在的唯一标志,描述了进程的基本情况,可分成为调度信息和执行信息两部分
三态度模型
(1)运行态→等待态:等待使用资源,如等待外设传输、等待人工干预。
(2)等待态→就绪态:资源得到满足,如外设传输结束、人工干预完成。
(3)运行态→就绪态:运行时间片到;出现有更高优先权进程。
(4)就绪态→运行态:CPU空闲时选择一个就绪进程。
系统架构师笔记——操作系统_第1张图片
五态模型
(1)活跃阻塞态→静止阻塞态:如果当前不存在活跃就绪进程,那么至少有一个等待态进程将
被对换出去成为静止阻塞态;操作系统根据当前资源状况和性能要求,可以决定把活跃阻塞态进程
对换出去成为静止阻塞态。
(2)静止阻塞态→静止就绪态:引起进程等待的事件发生之后,相应的静止阻塞态进程将转换
为静止就绪态。
(3)静止就绪态→活跃就绪态:当内存中没有活跃就绪态进程,或者静止就绪态进程具有比活
跃就绪态进程更高的优先级,系统将把静止就绪态进程转换成活跃就绪态。
(4)活跃就绪态→静止就绪态:操作系统根据当前资源状况和性能要求,也可以决定把活跃就
绪态进程对换出去成为静止就绪态。
(5)静止阻塞态→活跃阻塞态:当一个进程等待一个事件时,原则上不需要把它调入内存。但
是,当一个进程退出后,内存已经有了一大块自由空间,而某个静止阻塞态进程具有较高的优先级
并且操作系统已经得知导致它阻塞的事件即将结束,此时便发生了这一状态变化。
系统架构师笔记——操作系统_第2张图片

4. 信号量与PV操作
(1)信号量:是一种特殊的变量,表现形式是一个整型S和一个队列。
(2)P操作:S=S-1,若S<0,进程暂停执行,进入等待队列。
(3)V操作:S=S+1,若S≤0,唤醒等待队列中的一个进程。
系统架构师笔记——操作系统_第3张图片
信号量S的初值为1。该值表示可以允许多少个进程进入。 而当一个进程 从临界区出来时,执行V操作(S=S+1),如果等待队列中还有进程(S≤0),则调入一个新的进程 进入
生产者-消费者问题
系统架构师笔记——操作系统_第4张图片

5.死锁

死锁产生需要满足以下任意一个条件
(1)互斥:即一个资源每次只能被一个进程使用。
(2)保持与等待:一个进程已获得资源,但请求其他资源被阻塞时,已获得的资源保持不放。
(3)不可抢占:某个进程已获得这种资源后,系统不能强行收回,只能由进程使用完自己释放。
(4)循环等待:若干个进程形成环形链,每个都占用对方要申请的下一个资源。
银行家算法
所谓银行家算法,是指在分配资源之前先看清楚,资源分配后是否会导致系统死锁。如果会死
锁,则不分配,否则就分配。
对待死锁的策略主要有:
(1)死锁预防:破坏导致死锁必要条件中的任意一个就可以预防死锁。例如,要求用户申请资
源时一次性申请所需要的全部资源,这就破坏了保持和等待条件;将资源分层,得到上一层资源
后,才能够申请下一层资源,它破坏了环路等待条件。预防通常会降低系统的效率。
(2)死锁避免:避免是指进程在每次申请资源时判断这些操作是否安全,例如,使用银行家算
法。死锁避免算法的执行会增加系统的开销。
(3)死锁检测:死锁预防和避免都是事前措施,而死锁的检测则是判断系统是否处于死锁状
态,如果是,则执行死锁解除策略。
(4)死锁解除:这是与死锁检测结合使用的,它使用的方式就是剥夺。即将某进程所拥有的资
源强行收回,分配给其他的进程。
5.文件
文件的存储设备通常划分为大小相同的物理块,物理块是分配和传输信息的基本单位。常用的文件物理结构有连续文件、串联文件和索引文件。
常用的访问方法有顺序访问和随机访问。文件的逻辑结构可以分为无结构的字符流文件和有结构的记录文件。常用的记录式结构有连续结构、多重结构、转置结构和顺序结构。
树形目录结构
在树形目录结构中,树的根节点为根目录,数据文件作为树叶,其他所有目录均作为树的节
点。系统在建立每一个目录时,都会自动为它设定两个目录文件,一个是“.”,代表该目录自己,
另一个是“..”,代表该目录的父目录。对于根目录,“.”和“..”都代表其自己。
相对路径:从用户工作目录开始的路径,随着用户工作目录的变化而变化。
绝对路径:从根目录开始的路径,是确定不变的。
在Windows系统中,有两种格式的文件,分别是FAT32(FAT16)文件和NTFS文件。NTFS在 使用中产生的磁盘碎片要比FAT32少,安全性也更高,而且支持单个文件的容量更大,超过了 4GB,特别适合现在的大容量存储。
6.存储空间管理
文件存储设备是分成许多大小相同的物理块,并以块为单位交换信息,因此文件存储设备的管理,实质上是对空闲块的组织和管理问题。
空闲表法:属于连续分配,系统为外存上的所有空闲区建立一张空闲表,每个空闲区对应一个空
闲表项,包括序号、第一空闲盘块号和空闲盘块数。
空闲链表法 :将所有空闲盘区,拉成一条空闲链,根据构成链所用的基本元素的不同,可把链表分成空闲盘块链和空闲盘区链。
空闲盘块链: 将磁盘上的空闲区空间以盘块为单位拉成一条链,当用户请求分配存储空间时,系统从链首开始,依次摘下适当数目的空闲盘块链给用户。用户因 释放存储空间时,系统将回收的盘块依次插入空闲盘块链的末尾。
空闲盘区链: 将磁盘上所有空闲盘区拉成一条链,盘区上包含若干用于指示下一个 空闲盘区的指针,指明盘区大小的信息。分配盘块时,通常采用首次适应算法(显式链接法)。 回收时,要将回收区与空闲盘区相合并。
位图法: 用二进制位表示磁盘中盘块使用情况,0表示空闲,1表示已分配。磁 盘上的盘块都与一个二进制位相对应,由所有的二进制位构成的集合称为位图。优 点是很容易找到相邻的空闲盘块。位图小,可以把它保存在内存中,节省了磁盘的 启动操作。
成组链接法:将空闲表和空闲链表法结合形成的一种空闲盘块管理方法,适用于大型文件系统。
7.存储管理
对于本知识点,主要考查虚拟存储器(虚存),特别是页式存储管理。
地址变换 用户编程所用的 地址称为逻辑地址 ,而实际的内存地址则称为物理地址。每次访问内存时都 要进行逻辑地址到物理地址的转换,这种转换是由硬件完成的,而内存和外存间的信息动态调度是 硬件和操作系统 配合完成的。
(1)静态重定位:静态重定位是在虚空间程序执行之前由装配程序完成地址影射工作。静态重
定位的优点是不需要硬件的支持。缺点是无法实现虚拟存储器,必须占用连续的内存空间且难以做
到程序和数据的共享。
(2)动态重定位:动态重定位是在程序执行过程中,在CPU访问内存之前,将要访问的程序或
数据地址转换为内存地址。动态重定位依靠硬件地址变换机构完成,其优点主要有:可以对内存进
行非连续分配;提供了虚拟存储器的基础;有利于程序段的共享。
存储组织 : 虚拟存储器可以分为单一连续分区、固定分区、可变分区、可重定位分区、页式、段式、段页 式7种。  
系统架构师笔记——操作系统_第5张图片
(5)页式:页式存储组织是将各进程的虚拟空间划分为若干个长度相等的页,把内存空间以与页相等的大小划分为大小相等的片或页面,采用请求调页或预调页技术实现内外存的统 一管理。页式存储组织的优点是利用率高,产生的内存碎片小,内存空间分配及管理简单。缺点是要有相应的硬件支持,增加了系统开销;请求调页的算法如选择不当,有可能产生抖动现象。
(6)段式:一个作业是由若干个具有逻辑意义的段(如主程序、子程序、数据段等)组成。段
式存储管理中,允许程序占据内存中若干分离的分区。分段系统中的虚地址是一个有序对 (段号,段内位移)。系统为每一个作业建立一个段表,其内容包括段号与内存起始地址的对应关系、段长和状态等。状态指出这个段是否已调入内存,若已调入内存,则指出这个段的起始地址位置,状态同时也指出这个段的访问权限。如果该段尚未调入内存,则产生缺段中断,以便装入所需要的段。段式存储管理优点是便于多道程序共享内存,便于对存储器的保护,各段程序修改 互不影响。缺点是内存利用率低,内存碎片浪费大。
(7)段页式。这是分段式和分页式结合的存储管理方法,充分利用了分段管理和分页管理的优
点。作业按逻辑结构分段,段内分页,内存分块。作业只需部分页装入即可运行,所以支持虚拟存
储,可实现动态连接和装配。
例题:某页式存储系统的地址变换过程如图1-6所示。假定页面的大小为8K,图1-6中所示的十
进制逻辑地址9612经过地址变换后,形成的物理地址a应为十进制多少呢?
系统架构师笔记——操作系统_第6张图片

因为8K=2 13 ,所以页内地址有13位。逻辑地址9612转换成二进制,得到10 0101 1000  1100,这里的低13位为页内偏移量,最高一位则为页号,所以逻辑地址9612的页号为1,根据图 1-6的对照表,即物理块号为3(二进制形式为11)。把物理块号和页内偏移地址拼合110 0101 1000 1100,再转换为十进制,得到25996。
是段页式管理在进行虚实地址转换 时,可以采用的公式如下:
系统架构师笔记——操作系统_第7张图片
7.存储管理
在虚拟存储器的管理中,涉及载入、放置和置换等问题。
(1)调入策略:即何时将一页或一段从外存中调入内存,通常有两种策略,一种是请求调入
法,即需要使用时才调入;另一种是先行调入法,即将预计要使用的页/段先行调入内存。
(2)放置策略:也就是调入后,放在内存的什么位置,这与内存管理基本上是一致的。
(3)置换策略:由于实际内存是小于虚存的,因此可能会发生内存中已满,但需要使用的页不
在内存中这一情况(称为缺页中断)。这时就需要进行置换,即将一些内存中的页淘汰到外存,腾
出空间给要使用的页,这个过程也称为Swapping。
常见的置换算法如下:
(1)最优(Optimized,OPT)算法:选择淘汰不再使用或最将来才使用的页,这是理想的算
法,但难以实现,常用于淘汰算法的比较。
(2)随机(Rand)算法:随机地选择淘汰的页,开销小,但可能选中立即就要访问的页。
(3)先进先出(First In and First Out,FIFO)算法:选择淘汰在内存驻留时间最长的页,似
乎合理,但可能淘汰立即要使用的页。另外,使用FIFO算法时,在未给予进程分配足够的页面时, 有时会出现给予进程的页面数越多,缺页次数反而增加的异常现象,这称为Belady现象。例如,若某个进程访问页面的顺序是432143543215,当进程拥有3个主存页面时,发生缺页率比拥有4个主存页面时要小。
(4)最近最少使用(Least Recently Used,LRU)算法:选择淘汰离当前点时刻最近的一段内使用得最少的页。例如,若某个进程拥有3个主存页面,已访问页面的顺序是4314,现在如果要访问第2页,则需要淘汰第3页,因为第1、4页刚刚使用了。这个算法的主要出发点是,如果某页被访问了,则它可能马上就要被访问。OPT算法和LRU算法都不会发生Belady异常现象。
局部性原理
存储管理策略的基础是局部性原理,即进程往往会不均匀地高度局部化地访问内存。局部性分为时间局部性和空间局部性。时间局部性是指最近访问存储位置,很可能不久的将来还要访问;空
间局部性是指存储访问有成组的倾向:当访问了某个位置后,很可能也要访问其附近的位置。
工作集是进程频繁访问的页面的集合。工作集理论指出,为使进程有效地运行,它的页面工作集应驻留内存中。否则,由于 进程频繁地从外存请求页面,而出现称为“颠簸”(抖动)的过度的页面调度活动。可通过控制缺页率控制颠簸。
8. 作业管理
系统为每一个作业建立—个作业控制块(Job Control Block,JCB)。系统通 过JCB感知作业的存在。JCB包括内容有作业名、作业状态、资源要求、作业控制方式、作业类型以及作业优先权等。
系统架构师笔记——操作系统_第8张图片

(1)提交状态。作业由输入设备进入外存储器(也称输入井)的过程称为提交状态。处于提交
状态的作业,其信息正在进入系统。
(2)后备状态。当作业的全部信息进入外存后,系统就为该作业建立一个作业控制块。
(3)执行状态。一个后备作业被作业调度程序选中分配了必要的资源并进入了内存,作业调度
程序同时为其建立了相应的进程后,该作业就由后备状态变成了执行状态。
(4)完成状态:当作业正常运行结束,它所占用的资源尚未被系统回收时的状态为完成状态。
作业调度
处理器调度通常分为三级调度,即低级调度、中级调度和高级调度。  
(1)高级调度。高级调度也称为作业调度。高级调度的主要功能是在批处理作业的后备作业队
列中选择一个或者一组作业,为它们建立进程,分配必要的资源,使它们能够运行起来。    
(2)中级调度。中级调度也称为交换调度,中级调度决定进程在内、外存之间的调入、调出。
其主要功能是在内存资源不足时将某些处于等待状态或就绪状态的进程调出内存,腾出空间后,再
将外存上的就绪进程调入内存。
(3)低级调度。低级调度也称为进程调度,低级调度的功能是确定处理器在就绪进程间的分配。
作业调度算法
(1)先来先服务(FCFS)。按作业到达的先后次序调度,它 不利于短作业。
(2)短作业优先(Short Job First,SJF)。按作业的估计运行时间调度,估计运行时间短的
作业优先调度。它不利于长作业,可能会使一个估计运行时间长的作业迟迟得不到服务。
(3)响应比高者优先(HRN)。对FCFS方式和SJF方式的一 种综合平衡。FCFS方式只考虑每个作业的等待时间而未考虑执行时间的长短,而SJF方式只考虑执行 时间而未考虑等待时间的长短。因此,这两种调度算法在某些极端情况下会带来某些不便。HRN调 度策略同时考虑每个作业的等待时间长短和估计需要的执行时间长短,从中选出响应比最高的作业 投入执行。
响应比R定义: R = (W+T)/T = 1+W/T 其中T为该作业估计需要的执行时间,W为作业在后备状态队列中的等待时间。每当要进行作业调度时,系统计算每个作业的响应比,选择其中R最大者投入执行。这样,即使是长作业,随着它等待时间的增加,W/T也就随着增加,也就有机会获得调度执行。这种算法是介于FCFS和SJF之间的一 种折中算法。由于长作业也有机会投入运行,在同一时间内处理的作业数显然要少于SJF法,从而采 用HRN方式时其吞吐量将小于采用SJF 法时的吞吐量。另外,由于每次调度前要计算响应比,系统开销也要相应增加。
(4)优先级调度。根据作业的优先级别,优先级高者先调度。
9.设备管理
在计算机系统中,除了处理器和内存之外,其他的大部分硬设备称为外部设备。它包括输入/输
出设备,外存设备及终端设备等。为了完成上述主要任务,设备管理程序一般要提供下述功能:
(1)提供和进程管理系统的接口。当进程要求设备资源时,接口将进程要求转达给设备管理 。
(2)进行设备分配。按照设备类型和相应的分配算法把设备和其他有关的硬件分配给请求该设
备的进程,并把未分配到所请求设备或其他有关硬件的进程放入等待队列。
(3)实现设备和设备、设备和CPU等之间的并行操作。
(4)进行缓冲区管理。主要减少外部设备和内存与CPU之间的数据速度不匹配的问题,系统中
一般设有缓冲区来暂放数据。设备管理程序负责进行缓冲区分配、释放及有关的管理工作。
10.数据传输控制方式
(1)程序控制方式。CPU直接利用I/O指令编程,实现数据的输入输出。CPU发出I/O命令,命
令中包含了外设的地址信息和要执行的操作,相应的I/O系统执行该命令并设置状态寄存器;CPU
不停地查询I/O系统以确定该操作是否完成。由程序主动查询外设,完成主机与外设间的数据传送,方法简单,硬件开销小。
(2)程序中断方式。CPU利用中断方式完成数据的输入/输出,当I/O系统与外设交换数据时,
CPU无需等待也不必去查询I/O的状态,当I/O系统完成了数据传输后则以中断信号通知CPU。CPU
然后保存正在执行程序的现场,转入I/O中断服务程序完成与I/O系统的数据交换。然后返回原主程
序继续执行。与程序控制方式相比,中断方式因为CPU无需等待而提高了效率。在系统中具有多个
中断源的情况下,常用的处理方法有:多中断信号线法、中断软件查询法、雏菊链法、总线仲裁法
和中断向量表法。
(3)DMA方式。使用DMA控制器(DMAC)来控制数据传输。DMAC和CPU共享系统总线,并且具有独立访问存储器的能力。在进行DMA时, CPU放弃对系统总线的控制而由DMAC控制总线;由DMAC提供存储器地址及必需的读写控制信号,实现外设与存储器之间的数据交换。DMAC获取总线的3种方式:暂停方式、周期窃取方式和共 享方式。
(4)通道方式。通道是一种通过执行通道程序管理I/O操作的控制器,它使主机与I/O操作之间达到更高的并行程度。在具有通道处理机的系统中,当用户进程请求启动外设时,由操作系统根据
I/O要求构造通道程序和通道状态字,将通道程序保存在内存中,并将通道程序的首地址放到通道地 址字中,然后执行启动I/O指令。按照所采取的传送方式,可将通道分为字节多路通道、选择通道和数组多路通道三种。
(5)输入输出处理机。输入输出处理机也称为外围处理机,它是一个专用处理机,也可以是一 个通用的处理机,具有丰富的指令系统和完善的中断系统。专用于大型高效的计算机系统处理外 围设备的输入输出,并利用共享存储器或其他共享手段与主机交换信息。从而使大型高效的计算
机系统更加高效地工作。与通道相比,输入输出处理机具有比较丰富的指令系统,结构接近于一般
的处理机,有自己的局部存储器。
11.磁盘调度算法
访问磁盘的时间由三部分构成,它们是寻道(查找数据所在的磁道)时间、等待(旋转等待扇
区)时间和数据传输时间,其中寻道时间(查找时间)是决定因素。
(1)FCFS算法:有些文献称为FIFO算法。FCFS是一种最简单的磁盘调度算法,按先来先服务
的次序,未作优化。这种算法的优点是公平、简单,且每个进程的请求都能依次得到处理,不会出
现某一进程的请求长期得不满足的情况。此算法未对寻道进行优化,致使平均寻道时间可能较长。
(2)SSTF(最短寻道时间优先)算法:选择这样的进程,其要求 访问的磁道距当前磁头所在的磁道距离最近,以使每次寻道的时间最短。FCFS会引起读写头在盘面 上的大范围移动,SSTF查找距离磁头最短的请求作为下一次服务的对象。 SSTF查找模式有高度局部化的倾向,会推迟一些请求的服务,甚至引起无限拖延( 饥饿)。
(3)SCAN(电梯)算法:不仅考虑到欲访问的磁道与当前磁道的距离,而且优先考虑的是磁 头的当前移动方向,是在磁头前进方向上的最短查找时间优先算法,它排除了磁头在盘面局部位置
上的往复移动。SCAN算法在很大程度上消除了SSTF算法的不公平性,但仍有利于对中间磁道的请求。SCAN算法的缺陷是当磁头刚由里向外移动过某一磁道时,恰有一进程请求访问此磁道,这时进 程必须等待,待磁头由里向外,然后再从外向里扫描完所有要访问的磁道后,才处理该进程的请求,致使该进程的请求被严重地推迟。
(4)N-SCAN(N步SCAN)算法:这是对SCAN算法的改良,磁头的移动与SCAN算法是一样 的,不同的是扫描期间只对那些在扫描开始前已等待服务的请求提供服务。在服务期间,新到达的
请求即使在磁头前进方向上也得不到服务,直到下一个新扫描周期开始。。N-SCAN算法的实质是
把FCFS和SCAN的优点结合起来,以便取得较好的性能。如果新到达的请求按优化次序排列,则下 一个扫描周期必然花费最少的磁头移动时间。
(5)C-SCAN(循环扫描)算法:这是对SCAN算法的另一种改良,是单向服务的N步SCAN算
法,C-SCAN算法规定磁头单向移动。C-SCAN算法彻底消除了对两端磁道请求的不公平。
12.虚设备与SPOOLING技术
SPOOLing的意思是外部设备同时联机操 作,又称为假脱机输入输出操作或排队转储技术,采用一组程序或进程模拟一台输入输出处理器。 它在输入和输出之间增加了“输入井”和“输出井”的排队转储环节,SPOOLing系统的组成如图 所示。
系统架构师笔记——操作系统_第9张图片

(1)输入井和输出井:这是在磁盘上开辟出来的两个存储区域。输入井模拟脱机输入时的磁盘,用于存放I/O设备输入的数据;输出井模拟脱机输出时的磁盘,用于存放用户程序的输出数据。 因此,SPOOLing系统必须有高速、大容量、随机存取的外存的支持。
(2)输入缓冲区和输出缓冲区:在内存中开辟的两个缓冲区。输入缓冲区用于暂存输入设备送来的数据,以后在传送到输出井。输出缓冲区用于暂存从输出井送来的数据,再传送到输出设备。
(3)输入进程和输出进程:输入进程模拟脱机输入时的外围控制机,将用户要求的数据有输入设备到输入缓冲区再送到输入井。当CPU需要输入设备时直接从输入井读入内存。输出进程模拟脱机输出时的外围控制机,把用户要求输入的数据,先从内存送到输出井,待输出设备空闲时,再将输出井中的数据,经过输出缓冲区送到输出设备上。
SPOOLing技术的主要特点如下:
(1)提高了I/O速度。从对低速I/O设备进行的I/O操作变为对输入井或输出井的操作,如同脱
机操作一样,提高了I/O速度,缓和了CPU与低速I/O设备速度不匹配的矛盾。
(2)设备没有分配给进程。输入井或输出井中,分配给进程的是一存储区和建立一张 I/O请表。
(3)实现了虚拟设备功能。多个进程同时使用一独享设备,而对每一进程而言,都认为自己独
占这一设备,不过,该设备是逻辑上的设备。采用SPOOLing技术,可以将低速的独占设备改造成一 种可共享的设备,而且一台物理设备可以对应若干台虚拟的同类设备。
13.网络操作系统
网络操作系统是指能使网络上个计算机方便而有效的共享网络资源,为用户提供所需的各种服
务的操作系统软件。
对等式网络操作系统:网络操作系统相等地分布在网络上的所有节点。
集中式网络操作系统: 网络操作系统的主要部分驻留在中心节点, 行机制是C/S(Client/Server,客户/服务器)架构。
网络操作系统由网络驱动程序、子网协议和应用层协议等3个方面组成
(1)网络驱动程序:网络驱动程序涉及OSI/RM(Open System Interconnection Reference 
Model,开放系统互连参考模型)的第2层(数据链路层)和第3层(网络层),是网卡和高层协议
间的接口。网络驱动程序把网卡如何对来自和发往高层的包所使用的方法进行了屏蔽,使高层不必
了解收发操作的复杂性,而网络驱动程序本身则必须对网卡的操作有详细的了解。由于对标准的具
体实现不同,网络驱动程序也就不同。正因为这样,网络集成商对所使用的网卡必须选择配对的驱
动程序,并将所用的网络驱动程序同网络操作系统集成到一起。 
(2)子网协议:子网协议涉及OSI/RM的第3层、第4层(传输层)和第5层(会话层)。第3层
建立在第2层提供的点到点连接上,主要任务是如何对通信量进行路由选择,提供拥塞和流量控制, 提供统一的网络寻址方法,以便令牌环和以太网络能理解。第4层可对第3层提供的服务进行提高, 能确保可靠的数据交付。第5层提供有序的会话服务,如在会话上可提供会话控制,权标管理和活动管理。
(3)应用层协议:应用层协议最重要的是NCP。NCP作为应用层的协议,提供了下述主要功能:在不同方式下打开文件;关闭打开的文件;从打开的文件读取数据块;将数据块写入打开的文件;获取目录项表;处理服务器数据库;提供高级连接服务;提供同步操作。

你可能感兴趣的:(学习笔记,系统架构,linux)