内存可存放数据,程序执行前需要先放到内存中才能被CPU处理【缓和CPU与硬盘之间的速度矛盾】。
问题1:在多道程序环境下,系统会有多少个程序并发执行,也就是说会有多个程序的数据需要放到内存中,如何区分各个程序的数据是放在什么地方内?
方案:给内存的存储单元编地址。
问题2:什么叫做存储单元?每一个存储单元存储多少数据?
存储单元
:内存中有一个个小房间,其中的每个小房间就是存储单元。
补充知识:几个常用的数量单位
一台手机/电脑有4GB内存,是什么含义?是指该内存中可以存放4*230个字节,如果是按照字节编址的话,也就是有4 x 230 = 232个小房间,需要32个二进制位来表示,范围为:0 - 232 - 1。
注:有的题目会告诉我们内存的大小,让我们确定地址长度应该是多少,也就是多少个二进制位来表示相应数目的存储单元。
实际一条C语言指令会经过编译工具编译为三条机器指令:
第一条指令:第一条参数则是指令码表示的是数据传送指令,第二个参数指的是寄存器地址,第三个参数则是主存的地址,这里表示的是将寄存器指定地址中的数据10存放到主存中。
第二条指令:第一个参数表示的加法指令,第二个参数指的是寄存器指令,第三个参数是加数,实际上会将存储器中的值+1之后存储到寄存器中,此时指定地址的寄存器值为11。
第三条指令:第一个参数表示的是和第一条指令一致,实际上就是将寄存器中的11传输到主存地址当中去。
小结:实际我们写的代码会翻译成CPU能识别的指令,这些指令会告诉CPU应该去内存的哪个地址读/写数据,这个数据应该做什么处理。在这个例子中,默认让这个进程的相关内容从地址#0开始连续存放,指令中的地址给出了变量x的实际地址(物理地址)。
思考:若是这个进程不是从地址#0开始存放的,是否会影响指令的正常执行?
实际指令中给出的地址实际是相对地址(逻辑地址),这个地址指的是它相对于这个进程的起始地址而言的地址,有些时候并不是直接从#0开始的地址,如下面往地址79存储单元写入10,而实际的程序中初始地址是从100开始的,那么在这里这个逻辑地址就需要去根据相对这个程序的初始地址来得到真实的物理地址:
在内存管理当中比较重要的是:如何将指令中的逻辑地址转换为物理地址?
三种策略装入方式解决地址转换:
1、绝对装入
2、可重定位装入(静态重定位)
3、动态运行时装入(动态重定位)
从写程序到程序运行(宏观、全局):
编译
:由编译程序将用户源代码编译为若干个目标模块(编译就是将高级语言翻译为机器语言)。
链接
:由链接程序将编译后形成的一组目标模块以及所需库函数链接在一起,形成了一个完整的装入模块。
装入
:由装入程序将装入模块装入到内存中运行。
链接包含三种链接方式:
1、静态链接:在程序运行之前,先将各个目标模块及它们所需的库函数链接成一个完整的可执行文件(装入模块),之后不再拆开。
2、转入时动态链接:将个目标模块装入内存时,边装入边链接的链接方式。
3、运行时动态链接:在程序执行中只有需要到该目标模块时,才进行链接。
优点:便于修改和更新,便于实现对目标模块的共享,可以提升对内存的利用率。
①绝对装入
绝对装入
:在编译期间,知道程序放到内存哪个位置情况,将原始指令中的相对地址修改为绝对地址。
注意:最终修改后的绝对地址实际上是直接存储在装入模块(非内存),可执行文件中的(exe)。
评价:绝对装入只适合单道程序环境。
②静态重定位
静态重定位
:又称可重定位装入。编译、链接后的装入模块地址都是从0开始的,指令中使用到的地址、数据存放的地址都是相对于起始地址而言的逻辑地址。可根据内存的当前情况,将装入模块装入到内存的适当位置,装入时对地址进行"重定位",将逻辑地址变换为物理地址(地址变换是在装入时一次完成的)。
时机:修改地址的时机是在装入模块装入到内存中的时候发生。
特点:在一个作业装入内存时,必须分配其要求的全部内存空间,如果没有足够的内存,就不能够装入该作业。
注意:作业一旦进入到内存后,在运行期间就不能够再移动,也不能再申请内存空间。
③动态重定位
动态重定位
:又称为动态运行时装入。编译、链接后的装入模块地址都是从0开始的,装入程序把装入模块装入内存时,并不会立即将逻辑地址转换为物理地址,而是把地址转换推迟到程序真正要执行时才进行。因此装入内存后所有的地址依旧是逻辑地址,这种方式需要一个重定位寄存器的支持。
时机:在真正指令读取执行的时候,当读取到逻辑地址为79的时候,会将重定位寄存器中的地址相加,最终得到一个绝对地址。
好处:
1、通过这种方式我们若是在内存中将进程的位置进行移动,也十分简单只需要修改重定位寄存器的值即可。
2、可以将程序分配到不连续的存储区中,在程序运行前只需要只需要装入它的部分代码即可投入运行。
3、在程序运行期间,根据需要动态申请分配内存,便于程序段的共享。
4、可以向用户提供一个比存储空间大得多的地址空间。
内存空间的分配与回收主要包含四个功能:①内存空间的分配与回收。②内存空间的扩充(实现虚拟性)。③地址转换。④存储保护。
操作系统主要负责内存空间的分配与回收。
操作系统需要提供某种技术从逻辑上对内存空间进行扩充。【虚拟性把物理上很小的内存拓展为逻辑上很大的内存】
实现地址转换,将程序中的逻辑地址转换为物理地址。
操作系统需要提供内存保护功能,保证各进程在各自存储空间内运行,互不干扰。
内存保护采取两种方式:
方式一:在CPU中设置一对上、下限寄存器,存放进程的上、下限地址。进程的指令要访问某个地址时,CPU检查是否越界。只有在这两个地址之间才能够访问。
方式二:采用重定位寄存器
(又称为基址寄存器)和界地址寄存器
(又称为限长寄存器)进行越界检查。重定位寄存器中存放的是进程的起始物理地址。界地址寄存器中存放的是进程的最大逻辑地址。
流程:比较的逻辑如上图所示,首先看80是否<179,小于表示是在范围内,接着去用重定位寄存器加上逻辑地址得到最终的存储单元地址。
出现的问题:早期的计算机内存很小,如IBM推出的第一台PC机最大只支持1MB大小的内存,因此经常会出现内存大小不够的情况。
解决方案:引入覆盖技术,用来解决程序大小超过物理内存总和的问题。
覆盖技术思想:将程序分为多个段(多个模块)。常用的段常驻内存,不常用的段需要时调入内存。
内存分布:分为一个"固定区
"和若干个"覆盖区
"。
实际覆盖技术案例:通过调用结构来进行划分,A必须执行,此时就需要划定固定区,对于B、C同一时间只需要调用一个,那么我们选取最大的一个段也就是10k,再下一层也是选中最大的12k划分到覆盖区1:
若是程序有一个明显的调用结构,我们可以依据其自身的调用结构,让那些不可能同时被访问的程序段共享同一个覆盖区。
可以看到上面原本52K大小的程序实际只需要30k的大小就可以顺利运行了。
缺点:对用户不透明,增加了用户编程负担。
实际应用:目前很少使用,一般只用于早期的操作系统。
交换(对换)技术的设计思想:内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已经剧本运行条件的进程换入内存(进程在内存与磁盘间动态调度)。
处理机调度分为高级调度、中级调度、低级调度,其中中级调度就是为了实现交换技术而使用的一种调度策略。
中级调度
:就是为了实现交换技术而使用的一种调度策略,就是说,本来我们的内存当中有很多进程正在并发的运行,如果某一时刻突然发现内存空间紧张的时候,我们就可以把其中的某些进程吧它暂时的换到外存中,进程相关的PCB会保存再内存中并且会插入到所谓的挂起队列里,直到之后,内存空间不紧张了,内存空间充足的时候,又可以将这些进程相关的数据再给换入内存。那么对于中级调度(内存调度),就是要决定将哪个处于挂起状态的进程重新调入内存。
**为什么进程的PCB会常驻内存呢?**因为进程被换出外存后,必须通过某种方法记录下来进程到底是放在外存的什么位置,这些记录可以记录在PCB中,所以PCB需要常驻内存。
挂起态(suspend)
:暂时换出外存等待的进程状态挂起态。三个问题:
问题1:应该在外存(磁盘)的什么位置保存被换出的进程?
解答:具有对换功能的操作系统中,通常把磁盘分为文件区
与对换区
两个部分。
离散分配方式
。连续分配方式
。对换区中的I/O速度比文件区的速度更快,进程数据被换出的时候一般放在对换区,换入的时候也是从对换区换回到内存。
问题2:什么时候应该交换?
时机:交换通常在许多进程运行且内存吃紧时进行,而系统负荷降低就暂停。例如:在发现许多进程运行时经常发生缺页,说明内存紧张,此时可以换出一些进程;如果缺页率明显下降,就可以暂停换出进程。
问题3:应该换出哪些进程?
1、优先换出阻塞进程。
2、可换出优先级低的进程。
3、为了防止优先级低的进程在被调入内存后很快又换出(出现饥饿的现象),有的系统还会考虑进程在内存的驻留时间…
注意:PCB会常驻内存,不会被唤出外存。
连续与非连续的区别:连续分配指的是给用户进程分配的是一个连续的内存空间;非连续分配则是分配的不连续的内存空间。
在单一连续分配方式中,内存被分为:系统区和用户区。
系统区
:通常位于内存的低地址部分,用户存放操作系统相关数据。用户区
:用来存放用户进程相关数据。内存中只有一道用户程序,用户程序独占整个用户区空间。
不管这个用户区有多大,例如说一个用户进程,本身只需要下图用户进程A这么大的内存空间,那当它放到内存的用户区之后,用户区当中,其他这些空闲的空闲区间也不会分配给其他的用户程序,所以说整个用户程序独占整个用户区的这种存储空间。
优点:实现简单,无外部碎片,可以采用覆盖技术扩充内存。由于同一时刻只有一个用户程序在运行,所以采用这种分配方式的系统不一定需要内存保护。
缺点:①只能用于单用户、单任务的操作系统。②有内部碎片。
起因:20世纪60年代出现了支持多道程序的系统,为了能在内存中装入多道程序,且这些程序之间又不会相互干扰,于是将整个用户空间分为若干个固定大小的分区,每个分区中只装入一道作业,此时就形成了最早的、最简单的一种可运行多道程序的内存管理方式。
固定分区分配可分为的分区有相等也有不相等的:
①分区大小相等:缺乏灵活性,但是很适用于一台计算机控制多个相同对象的场合。
②分区大小不相等:增加了灵活性,可以满足不同大小的进程需求。
问题:操作系统怎么记录内存中各个分区、空闲或者分配的情况?
思路:操作系统实现一个数据结构-分区说明表,来实现各个分区的分配与回收,每个表项当中都有一个分区,按照分区大小排列,每个表项包含的内容对应分区的大小、起始地址、状态,如下图所示:
检索的流程:若是用户要装入程序到内存,由操作系统内核程序根据用户程序大小检索该表,从中找到一个能够满足大小的、未分配的分区,将它分配给该程序,然后修改状态为"已分配"。
优点:实现简单,无外部碎片(后面会提到)。
缺点:
1、若是用户程序太大,可能所有的分区都不能满足需求,此时不得不采用覆盖技术来解决,但会有一些损耗,降低性能。
2、会产生内部碎片,内存利用率低。
动态分区分配:又称为可变分区分配,这种分配方式不会预先划分内存分区,而是在进程装入内存时,根据进程的大小动态地建立分区,并使分区的大小正好适合进程的需要,因此系统分区的大小和数目是可变的。
对于动态分区分配的系统中内存分区大小和数量是可以改变的。
举例:一个内存空间分为系统区和用户区,系统去占8M字节,用户区为56M字节,刚开始到达用户进程1为20MB,进程2为14MB,进程3为18MB,此时整个内存还剩余4MB。
动态分区分配算法:在动态分区分配中,若是很多个空闲分区都能满足需求时,应该选择哪个分区进行分配?
算法思想:每次都从低地址开始查找,找到第一个能满足大小的空闲分区。
如何实现:空闲分区以地址递增的次序排列。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
如下图对应左边的内存空间中的空闲区域我们使用空闲分区表以及空闲分区链来实现:
若是我们要插入一个15MB的进程,此时我们直接从第一个空闲位置开始找起,此时第一个空闲区域为20MB满足要求,此时我们就直接将该进程插入到该进程中,对应的数据结构中将分区链表的空闲区域值修改(这里目前拿空闲分区链来作示例):
接着我们插入6MB的进程,此时依次从链头开始查找,第二个节点10MB可以满足,此时就可以插入到第二个空闲空间中,修改链表中第二个节点空间值为2MB:
算法思想:由于动态分区分配是一种连续分配方式,为各进程分配的空间必须是连续的一整块区域。因此为了保证当"大进程"到来时能有连续的大片空间,可以尽可能多地留下大片的空闲区,优先使用更小的空闲区。
实现思路:将空闲分区按照容量递增次序链接,每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
效果:能够尽可能多的留下大片的空闲分区。
实际案例:
当前的主存如下图所示:
接着我们来对内存中的空闲区域来进行排序组成一个链表:
此时主存要进入一个9MB的进程,我们从排序的链表中依次查询找到满足进程空间的最小区域,也就是10,接着我们将进程装入内存中。
注意此时我们链表中第二块区域数字修改,此时我们对链表中的区域重新排序:
此时我们又要装入一个3MB的进程,同样从链头开始查询找到最小的一块4MB空间区域:
缺点:由于每一次选择都是最小,能够满足要求的空闲分区进行分配,那么我们会留下越来越多的,很小的,很难利用的内存块,比如说有好几块1MB的空闲字段,而假如之后来的进程又都是2MB以上,那么这些碎片难以利用,使用这种算法会产生很多外部碎片。
为了解决最佳使用算法的缺点(外部碎片多)于是提出了最坏适应算法。
算法思想:为了解决最佳适应算法的问题(留下太多难以利用的小碎片),可以在每次分配时优先使用最大的连续空闲区,这样分配后剩余的空闲区就不会太小,更方便使用。
实现思路:空闲分区按容量的递减次序链接,每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲 分区。
实际案例:
按照主存中空闲区域,链表中的区域块从大到小排列:
进来一个进程5(3MB)此时则会瓜分20MB的最大区域空间:
又装入进程6(9MB)此时又是装入第一个最大的空闲区域17MB,此时空闲区域还有8MB:
注意此时链表中节点的大小顺序并不是从大到小递减,此时则会对链表中的节点进行排序:
缺点:每次都选最大的分区进行分配,虽然可以让分配后留下来的空闲区更大,更可用,但是这种方式会导致较大的连续空闲区被迅速用完,如果之后有"大进程"到达,就没有内存分区可用了。
算法思想:首次适应算法每次都是从链头开始查找,这可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此增加了查找的开销,如果每次都从上次查找结束的位置开始检索,就能解决上面问题。
实现思路:空闲分区是按照地址递增顺序排列,而不是根据分区大小(可以排成一个循环链表)。每次分配内存时从上次查找结束的位置开始查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
举例:
对于链表纯粹就是按照地址从低到高的顺序:
若是此时要装入一个进程为5MB,此时从链表的第一个位置开始查询满足空间的空闲区域,此时定位到第二个节点,将其位置大小改为1,对于临近适应算法无需对链表排序:
接着主存又要装入一个5MB进程,此时从链表中的1MB开始往后,此时确认第三个空闲区域可装入,此时空闲区域大小为5MB:
对比首次适应算法得到临近适应算法优点:若是首次适应算法则需要每次从第一个位置开始查找,而临近适应算法则是从上一次查找结果位置开始往后,邻近适应算法减少了查询次数。
缺点:邻近使用算法的规则可能会导致无论低地址、高地址部分的空闲分区都有相同的概率被使用,也就导致了高地址部分的大分区更可能被使用,划分为小分区,最后导致无大分 区可用。
综合来看,四种算法中,首次适应算法的效果反而更好。
两种常用的数据结构:空闲分区表、空闲分区链。
空闲分区表
:每个空闲分区对应一个表项,表项中包含分区号、分区大小、分区起始地址等信息
空闲分区链
:每个分区的起始部分和末尾部分分别设置前向指针和后向指针,起始部分处还可记录分区大小等信息。
如下图,若是14MB的内存空间从内存中移出,此时低位有一块14MB空间,高位有一块4MB空间,此时进入一个4MB进程,那么会存在哪个位置?
解答:通过采用动态分区分配算法
。
动态分区分配算法
:把一个新作业装入内存时,须按照一定的动态分区分配算法,从空闲分区表(或空闲分区链)中选出一个分区分配给该作业。
解答:可以采用空闲分区表或者空闲分区链的方式都可以。
分配示例
分配举例1:此时内存的用户区如下图所示分别有20MB、10MB、4MB空闲空间,那么此时我们要装载一个进程5如何进行分配,以及空闲的分区怎样进行回收?
接着系统采用"空闲分区表"数据结构来进行分配:
此时我们通过动态分区分配算法来将4MB进程装载到空闲的20MB分区中,此时我们看一下空闲分区表做了什么改变?此时只需要修改分区号为1的中起始地址即可。
分配举例2:
若是采用某种分配算法,将进程5分配到了最底部,此时空闲分区表的数量-1(若是空闲分区链就是把最后的节点删掉):
回收示例
回收举例1:回收的进程后面有空闲分区
若是回收掉的一个进程与空闲分区相邻,那么我们可以将当前空闲分区进行合并:
回收举例2:回收的进程前面有空闲分区
与举例1一样,此时我们将相邻的一个进程结束,那么同样会进行合并
回收举例3:回收的进程前后都有空闲分区
要回收的是进程4:那么此时就会将原先的1、2以及新撤出的合并为一条记录
回收举例4:回收区的前、后都没有相邻的空闲分区
若是回收的进程2前后都没有空闲区域,此时空闲回收表中会增加一条记录:
讨论关于内部碎片、外部碎片的问题:动态分区分配没有内部碎片,但是有外部碎片。
原本紧凑的内存空间我们通过几次回收、装入之后,此时就构成中间的外部碎片
此时若是我们要装入一个进程1为20MB,是否能够进行装入?
若是剩余的总外部碎片能够满足要进入的进程空间,那么如何应对呢?
最终移入内存即可!
紧凑技术
过程应该是采用动态重定位的方式实现(可以回忆交换技术、换入/换出)。
什么是分页存储?
页框、页帧
:属于主存,将内存空间分为一个个大小相等的分区(比如:每个分区4KB),每一个分区就是一个"页框"(页框=页帧=内存块=物理块=物理页面
),每个页框有一个编号,也就是"页框号
"(页框号=页帧号=内存块号=物理块号=物理页号
),页框号从0开始。
页、页面
:属于的是进程,将进程的逻辑地址空间也分为与页框大小相等的一个个部分,每个部分称为一个"页"或"页面"。每个页面也有一个编号,叫做"页号
",页号也是从0开始的。
要理解名词的差别:
操作系统以页框为单位为各个进程分配内存空间。进程的每个页面分别放入到一个页框中,也就是说,进程的页面和内存的页框有一一对应关系。
进程的页面与内存的页框是否有一一对应关系,操作系统是怎么记录这种一对一的关系呢?
页表
:为了直到进程的每个页面在内存中存放的位置,操作系统为每个进程都建立一张页表。
页表存储位置:通常都是存在PCB(进程控制块)中。
页表记录进程页面和实际存放的内存块之间的映射关系:
页号
"和"块号
"组成。实际答题使用"页框"(Page Frame)
术语。
示例如下:要求来计算其中的页块号、页号大小以及整个页表的大小
①首先计算块号:
内存块大小 = 页面大小 = 4KB = 212
4GB总内存大小 = 232
总共主存的块数为 = 232 / 212 = 220
此时想要表示主存块数的序号,那么就需要最少20位表示,内存块号的范围为:0 ~ 220 - 1。
由于1B=8位,那么20位最少要用3B空间来表示块号(3*8=24bit)。
说明:对于计算机中内存块的数量也就是页表项中块号至少占多少字节是高频重要考点。
②页号的大小呢?如何找到页表中页号为i的页表项?
实际由于页表项连续存放,因此页号是可以隐含的,不占存储空间(类比数组中的序号)。
问题:若是给出指定的页号,假设各页表项是从内存地址X的地方开始连续存放…,如何找到页号为i的页表项呢?
i号页表项的存放地址 = X + 3 * i
页号实际上可以不占空间,可以是隐含的,因为页表项是依次连续存放的。
③对于题目中这个页表占多大的空间?
可以看到页号范围是0-n个,块号占用3B空间,那么此时(n + 1) * 3 = 3(n + 1)B。
注意:页表记录中记录的只是内存块号,而不是内存块的起始地址,J号内存块的起始地址=J * 内存块大小
。
回顾知识:若是进程在内存中连续存放的时候,通过借助指令中的偏移量以及重定位寄存器中的值相加即可得到一个物理地址:
当前是采用分页方式,若是进行分页之后如何实现呢?
特点:虽然进程的各个页面是离散存放的,但是页面内部是连续存放的。
逻辑地址结构如下:分为页号P
、页内偏移量W
。
若是要访问逻辑地址A,则需要确认:
①确定逻辑地址A的对应"页号"P。【这个页号是用来查询页表中的页表项中的块号,接下来下面第②步】
②找到P号页面(页表中的块号)在内存中的起始地址(需要查页表)
③确认逻辑地址A的"页内偏移量" W。【这个页内偏移量指的是相对真实的主存块号初始地址的偏移量】
最终计算:逻辑地址A的物理地址 = P号页面在内存中的起始地址 + 页内偏移量 W
下面是土办法公式计算:
页号 = 逻辑地址 / 页面长度
(取除法的整数部分)页内偏移量 = 逻辑地址 % 页面长度
(取除法的余数部分)除法、取模优化(采用移位操作):在计算机内部,地址是用二进制表示的,若是页面大小刚好为2的整数幂,则计算机硬件可以很快速的把逻辑地址拆分成(页号、页内偏移量)。
下面是给出逻辑地址位数,页面大小来计算页号、页内偏移量的示例:
我们可以发现一个规律,对于2k的页面大小,底部的k位正好可以表示页内偏移量,而对于高位的32-k位则可以表示页号,这样的话我们仅仅只需要左移、右移操作就可以直接得到页号、页内偏移量,而不是通过除法、取余运算,效率大大提升!!!
土办法计算页面在内存物理地址:
J号内存块的起始地址 = J * 内存块大小
。【J号内存块指的是根据逻辑地址中的页号来查找页表中的页表项里的块号,此时这个块号就是J】物理地址 = J号内存块的起始地址 + 页内偏移量
。【这个页内偏移量是从逻辑地址中的地位得到的】示例:下面给出逻辑地址,页面大小,让你计算最终的内存物理地址
优化点:可以看到对于通过块号来计算主存块的一个初始地址,我们土办法采用的是乘法,实际你可以观察到我们可以根据一个主存块的位数从而确定块号后面填几位0,我们可以使用左移优化!!! 可以大大提升效率。
前提条件:页面大小采用2的整数幂。
①对于通过逻辑地址来得到页号、页内偏移量,土办法是使用除法、取余求得,实际通过观察规律发现,我们可以通过使用移位直接来进行拆分可以确定两个值,而不是使用除法、取余运算!
②对于页表项中的块号求得主存中的主存块的初始地址,土办法是使用乘法运算,实际我们也可以发现,只要直到一个主存块的大小位数,我们直接在主存块号后补多少0即可,同样也不需要使用运算器中的运算!
若页面大小不是采用2的整数幂,那么我们只能使用土办法计算:
对于页面大小刚好为2的整数幂更加详细的可以看下王道的说明:
重点理解、记忆基本地址变换机构(用于实现逻辑地址到物理地址转换的一组硬件机构)的原理和流程
基本地址变换机构可以借助进程的页表将逻辑地址转换为物理地址。
通常会在系统中设置一个页表寄存器(PTR),存放页表在内存中的起始地址F和页表长度M。
进程未执行时,页表的始址 和 页表长度放在进程控制块(PCB)中,当进程被调度时,操作系统内核会把它们放到页表寄存器中。
整个变换过程:此时页表的始址和页表长度已经放在了页表寄存器中了,看下页表寄存器起到的作用如下
王道给出的详细变换步骤:
注意点:
1、页号P>=页表长度M(页号是从0开始的,而页表长度至少是1,因此P与M也会越界)。
2、区分页表项长度、页表长度、页面大小的区别。
手动模拟基本地址变换机构确定物理地址:
在分页存储管理(页式管理)的系统中,只要确定了每个页面的大小(指的是一个页的大小能够决定页内偏移的位数),逻辑地址结构也就确定了。因此,页式管理中地址是一维的。即,只要给出一个逻辑地址,系统就可以自动算出页号、页内偏移量两个部分,并不需要显式的高速系统这个逻辑中,页内偏移占多少位。
每一个页表项中长度都是相同的,其中页号是隐含的,默认就是连续编号。
例题如下:
此时一个页表项大小为3B。
实际页表中的页表项会按照顺序连续地放在内存中,如果该页表在内存中存放的起始地址为x,则M号对应的页表项是存放在内存地址为X + 3*M。
一个页面(主存中的页块)为4KB,那么一个页框(与页面大小一致)可以存放:4096/3 = 1365个。
那么一个页框可以存放1365个,但是这个页框会剩余4096%3 = 1个,此时若是访问1365号页表项存放的地址为:X + 3 * 1365 + 1。
若是一个页表项占4字节,则每个页框刚好可以存放1024个页表项,对于1024号页表项可以直接通过X + 4 * 1024 得到。
结论:理论上,页表项长度为3B即可 表示内存块号的范围,但是为了方便页表的查询(统一直接一个式子查询)常常会让一个页表项占更多的字节(2的幂),使得每个页面恰好能够装得下整数个页表项。
一维
:要让CPU帮我们找到某一个逻辑地址对应的物理地址,我们只需要告诉CPU一个信息,也就是逻辑地址的值,不需要告诉其他任何信息。本章中实际上是进行了两次访存,之后会提出一种新的地址变换机构是否能用一种别的地址变换机构来减少访问内存的次数,从而加快整个地址变化和访问过程。
通过引入快表之后,地址变换的更快。
内存
:缓和CPU与硬盘之间的速度矛盾。
高速缓存
:缓和CPU与内存之间的速度矛盾。CPU运算速度比主存快得多。
快表
:又称为联想寄存器(TLB,translation lookaside buffer),是一种访问速度比内存快很多的高速缓存(TLB不是内存!),用来存放最近访问的页表项的副本,可以加速地址变换的速度。与此对应,内存中的页表称为慢表。
快表为什么要比慢表快?下面从硬件和操作系统的角度来描述。
硬件的角度:
思考:能否将整个页表放在TLB中?
说明:不太建议,因为快表这种存储硬件造价十分昂贵,在成本相同的情况下,快表存储的内容并没有什么多,并且在一段时间里并不会使用到整个页表中的数据,仅仅只是使用一部分数据。
操作系统的角度:
我们来看一个示例,在下图中是包含有快表以及慢表的结构,其中访问TLB只需要1us,访问内存需要100us:
假设某进程在执行过程中依次访问(0, 0)、(0, 4)、(0, 8)这几个逻辑地址:
首先访问(0, 0)这块逻辑地址,先会去检测页表长度是否越界异常,若是没有异常此时则会现在快表中进行查询,若是快表中没有命中,此时会去页表中进行查询,这里能够查询到0号页,得到了内存块号,接着我们可以根据内存块号以及页内偏移量得到了最终的物理地址。【实际若是快表命中失败,会进行两次访存,第一次是访问页表、第二次是访问内存】
此时可以看到在快表中已经存储了一条页号为0的页表项:
此时我们去查询逻辑地址为(0,4)的页表项:
同样是先进行查询快表,命中之后,此时得到内存块号即可根据页内偏移量直接去主存中查询对应的物理地址。【一次访存】。
注意:进程上处理机运行时,系统会清空快表的内容,快表是一个专门的硬件,当进程切换的时候,快表的内容也会被清除。
引入快表之后,地址的变换过程:
注意:在找到页表项后,应同时将其存入快表,以便后面可能的再次访问。但若快表已满,则必须按照一定的算法对旧的页表项进行替换。
好处:由于查询快表的速度比查询页表的速度快很多,因此只要快表命中,就可以节省很多时间。根据局部性定理,一般来说快表的命中率达到90%以上。
解:
方式一(先查快表,不命中后查慢表):(1+100) * 0.9 + (1 + 100 + 100) * 0.1 = 111us。
方式二(部分系统支持快表、慢表同时查询):(1+100) * 0.9 + (100 + 100) * 0.1 = 110.9us。
方式三(未采用快表):100 + 100 = 200us
疑问:对于快表、慢表同时查询。
解释快表与慢表同时查找:
对于先查快表、后查慢表的甘特图如下:
快表查询不到后才会去开始查慢表。
快表与慢表同时查找:
无论快表是否命中,查询快表与慢表是同时发起进行的。
为什么TLB中只存放了页表中的一部分,就可以让系统的效能提升这么多?
局部性原理
:
时间局部性原理:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;若是某个数据被访问过,不就之后该数据可能再次被访问。
空间局部性
:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。
小结:上节介绍的基本地址变换机构中,每次要访问一个逻辑地址,都需要查询内存中的页表。由于局部性原理,可能连续很多次查询到的都是同一个页表项。
TLB和普通Cache的区别:TLB中只有页表项的副本,而普通Cache中可能会有其他各种数据的副本。
此时有这样的一个页表:某个计算机按照字节来寻址,支持32位的逻辑地址,采用分页存储管理,页面大小为4KB,页表项长度为4B。
其中页面大小指的是内存中的一个页块大小,4KB = 212B,因此页内地址(页内偏移量)要用12位表示,由于逻辑地址为32位,此时页号则使用20位表示。
那么在一个主存中用户进程最多有220个页面,那么一个页表中最多会有220 = 1M = 1048576个页表项,所以一个页表最大需要220 * 4B = 222B,由于一个页面大小为4KB,那么页表中共需要222 / 212 = 1024 = 210个页框存储该页表。
K号页对应的页表项存放位置 = 页表始址 + K * 4
。要在所有的页表项都在连续存放的基础之上才能使用这种方法找到页表项(需要专门给进程分配210 = 1024个连续的页框来存放它的页表)。思考:由于局部性原理,在大多数情况下,进程在一段时间只需要访问某几个页面就可以正常运行,没有必要让整个页面常驻内存。
此时根据上面的现象我们提出单级页表的问题:
问题1:页表必须连续存放,但是单机页表一个进程光页表就需要占用连续的1024个页框,占用太多内存空间了,也就是很多个连续的页框。
问题2:进程在一段时间中只需要访问某几个页面就可以正常运行了,没有必要让整个页表都常驻内存。
问题1解决方案:参考进程在内存中必须连续存储的问题,将进程地址空间分页,并为其建立一张页表,记录个页面的存放位置。该思路可以用来解决"页表必须连续存放问题",把必须连续存放的页表再分页。
思路:将长长的页表进行分组,使每个内存块刚好放到一个分组中,如上面例子中一个页面大小4KB,每个页表项则是4B,那么每个页面可以存放1K个页表项,因此每1K个连续的页表为一组,每组刚好占一个内存块,再将各组离散地放到内存块中。
根据之前的题目,我们将一个逻辑地址拆分为两部分:20位页号(范围:12-31),12位页内地址(范围:0-11)。
梳理下思路,首先一个页表中最多会有220 = 1M = 1048576个页表项,一个内存页面是4KB,而对于一个页表项是4B,那么一个内存页面就能够存储1024=210个页表项,此时我们可以将1024个页表项作为一组实际就是一个内存页面表示一组。
由于一个页表中最多会有220 = 1M = 1048576个页表项,而一组(一个页面)则分为1024个页表,那么此时我们可以分为1048576 / 1024 = 1024组。
此时我们可以去维护一个二级页表
,为离散分配的页表再建立一张页表
,称为页目录表
(外层页表
、顶层页表
),由于我们有1024组,那么可以使用1024序号来表示相应的组别,与此同时我们的逻辑地址也发生了变化(一个页号拆分为两个部分:一级页号10位,二级页号10位):
注意:对于二级页表指向的内存位置应该是二级块号的内存块号,对于单个二级页表的存储容量只是一个内存块号,对于这两个区别一定要清楚!!!
首先给出一个逻辑地址,以此拆分为1级页号、二级页号、页内偏移量:
①按照地址结构将逻辑地址拆为三个部分。
②从PCB中读出页目录表始址,再根据一级页号查页目录表(一级页表),找到下一级页表在内存中的存放位置:
③得到了二级页表之后,接着我们拿逻辑地址中的二级地址再进行查询这个二级页表,最终确定了要访问的内存块号:
④此时得到最终的物理地址块号为4,由于一个内存块号为4B,逻辑地址中的页内偏移量为1023,此时可以得到最终的物理地址
物理地址 = 4 * 4096 + 1023 = 17407。
问题2解决方案:可以在需要访问页面时才把页面调入内存(虚拟存储技术)。可以在页表项中增加一个标志位,用户表示该页面是否已经调入内存。
若是想要访问的页面不在内存总,此时则产生缺页中断(内中断),然后将目标页面从外存调入内存。
细节点1:若是采用多级页表机制,则各个页表的大小不能超过一个页面。
首先页面大小指的是一个内存块:4KB = 212B,那么页面偏移位数为12位。
由于各个页表的大小不能超过一个页面,那么最大一个页表就是一个页表项大小也就是4KB,又一个页表项为4B,那么一个页表中有4KB/4B = 1024 = 210,那么页号就是占据10位。
此时我们看下剩余逻辑地址位数:40 - 10 -12 = 18,那么按照常理我们会觉得剩余18位就是1级页号,不过还是有问题的,注意这个细节点:各个页表的大小不能超过一个页面。
那么我们需要多加一级页表,那么就有3级页表,1-3级分别为:8、10、10。
细节点2:两级页表的访存次数分析(假设没有快表机构)
对于两级页表分析:①第一次访存(内存中的页目录表,一级页表)。②第二次访存(访问内存的二级页表)。③第三次访存:访问目标内存单元。
单级页表两次访存,两级页表三次访存。
进程的地址空间:按照程序自身的逻辑关系划分为若干个段,每个段都有一个段名(在低级语言中,程序员使用段名来编程),每段从0开始编址。
内存分配规则:以段为单位进行分配,每个段在内存中占据连续空间,但各个段之间可以不相邻。
分段系统的逻辑地址结构由段号(段名)和段内地址(段内偏移量)所组成,如:其中32位段号占16位,段内地址占16位
段号的位数
:决定了每个进程最多可以分几个段。段内地址位数
:决定了每个段的最大长度是多少。根据上面系统的分段,若系统按照字节寻址,那么一个段号占16位,因此在该系统中,每个进程最多由216=64K个段,段内地址占16位,也就是说每个段的最大长度为216 = 64KB。
对应的段名会通过编译器翻译为对应的段号,相对应的单元会被翻译为段内地址。
问题:程序分为多个段,各段离散装入内存,为了保证程序能正常运行,就必须能从物理内存中找到各个逻辑段的存放位置,为此需要为每个进程建立一张段映射表,简称"段表"。
1、每个段对应一个段表项,集中记录了该段在内存中的起始位置(基址
)和段的长度(一个段的实际长度)。
2、各个段表项的长度是相同的。
示例:我们来执行下面一条指令
LOAD 1, [D] // 将分段D中A单元内的值读入寄存器1
经过编译程序编译后,得到等价的机器指令:取出段号为2,段内地址为1024的内存单元内容,放入到寄存器中。
接下来是详细的地址变换流程:
最终会拿着基址和段内地址相加即可得到最终的物理地址。
细节点如下:
①比分页管理多一个检查时在获取到指定的段表找到段表项时,将段内地址与段长来进行比较,若是段内地址>=段长。
②分段中每个段长度不同,分页里每个页长度相同。在分页管理中,无需对页内偏移量做一个越界的检查。
1、页式信息的物理单位。分页的主要目的是实现离散分配,提高内存利用率。分页仅仅是系统管理上的需要,完全是系统行为,对用户不可见。
2、段是信息的逻辑单位。分段的主要目的是为了更好地满足用户需求。一个段通常包含着一组属于一个逻辑模块的信息。跟段是对用户可见的,用户编程时需要显式的给出段名。
3、页的大小固定且由系统决定;段的长度却不固定,由用户编写的程序确定。
4、根据地址角度来说:
①分页的用户进程地址空间是一维的,程序员只需给出一个记忆符即可表示一个地址。
②分段的用户进程地址空间是二维的,程序员在标识一个地址时,既要给出段名,也要给出段内地址。
参考:为什么分页机制中逻辑地址空间是一维的,而分段机制中逻辑地址空间是二维的?、分页存储的地址空间是一维的,分段存储的地址空间是二维的
5、分段比分页更容易实现信息的共享与保护。
问题1:共享与保护,如何实现共享使用段呢?
多个进程指向的段号只要有同样的段表项即可,两个段表项指向相同的位置。
问题2:为什么分页中不太能够实现信息的共享?
分页由于一个页框是固定大小的,可能会出现一个页中包含多个段的内容,若是像段一样让某个页表项指向这个页面,那么显得不太合理,其中有一部分是不允许被共享的。
我们看下对应段表与分页的表:
可以看到若是我们想要一个函数能够都被某个进程访问,由于我们是根据页来进行分长度的,每个页相同容量,此时就可能一个分页里有一部分函数A和另一个部分函数B:
这也是导致分页很难实现共享保护的问题。
6、不能被修改的代码称为"纯代码"和"可重入代码(不属于临界资源)",这样的代码是可共享的。
7、分段与分页两种方式种,访问逻辑地址需要几次访存?
分页(单级页表)
:第一次访存是查内存中的页表,第二次访存是访问目标内内存单元。总共两次访存。
分段
:第一次访存是查内存中的段表,第二次访存访问目标内存单元。总共两次访存。
与分页系统类似,分段系统中也可以引入快表机构,将近期访问的段表项放入到快表中,这样可以少一次访问,加快地址变换速度。
段式管理与动态分区分配很类似:
通过多次的装入以及撤销,就会产生外部碎片,此时若是有一个很大的进程想要装入就会放不下此时就需要采用紧凑技术来进行段整理,只不过需要付出较大的时间代价。
一个进程对应一个段表,但是一个进程可能会对应多个页表
其中的页号、页内偏移量是由段内地址进行拆分的。
不同的区域决定的含义:
在上面例子中,若是系统按照字节寻址:
"分段"是对用户可见的,程序员在编程时需要显式的给出段号、段内地址,其中将各段"分页"对用户是不可见的,系统会根据段内地址自动划分页号和页内偏移量(对于这两个部分用户是不可见的)。
因此段页式管理的地址结构是二维的。(页式管理是一维的,段式管理是二维的,段页式管理也是二维的)
对于一个进程与段、页的关系,一个进程会分为多个段,每个段由一个段表表示,每个段可能会有多个页表组成,接着根据页表中的内存块号来进行定位实际的物理地址:
上面的0号段为7KB,那么由于一个页为4KB,此时会分为两个页面(这两个页面依次对应页表当中的页表项)。
每个段对应一个段表项,每个段表项由段号、页表长度、页表存放块号(页表起始地址)组成,每个段长度相等,段号是隐含的。
每个页面对应一个页表项,每个页表项由页号、页面存放的内存块号组成。每个页表项长度相等,页号是隐含的。
简写实际流程:
1、根据逻辑地址得到段号、页号、页内偏移量。
2、将段号和段表长度进行比对,检查段号是否越界,若是越界发出中断,没有越界继续向下执行。
3、根据段号以及段表寄存器中的段表始址来找到指定段表在内存中的位置,接着根据段表项得到页表存放块号。
4、根据页表块号,根据页表存放块号来找到指定的页表的页表项,最后根据页表项中的内存块号以及页内偏移量W来确定最终的物理地址进行访存。
5、访问目标内存单元。
访存次数:第一次访存(段表项),第二次访存(页表项),第三次访存(访问物理地址)。
若是引入快表后,那么使用段号、页号作为查询快表的关键字,快表仅仅需要依次访存。
重要点:
实际也是实现内存扩充的一种技术,比交换技术、覆盖技术要更先进一点。
对于传统的存储管理有几个特征:
特征一:一次性
作业必须一次性全部装入内存后才能开始运行,这会造成两个问题:
①作业很大时,不能全部装入内存,导致大作业无法运行。
②当大量作业要求运行时,由于内存无法容纳所有作业,因此只有少量作业能运行,导致多道程序并发度降低。
特征二:驻留性
一旦作业被装入内存,就会一直驻留在内存中,直至作业运行结束。事实上,在一个时间段内,只需要访问作业的一小部分数据即可正常运行,这就导致了内存中会驻留大量的、暂时用不到的数据,浪费了宝贵的内存资源。
对于上面所说的一次性、驻留性都可用虚拟存储技术解决问题!!!
实际举例:
时间局部性
:由于while循环这几条指令被访问到了,那么可能下一次循环依旧会使用到这些指令,那么这些指令实际上可以存放到高速缓存中,下次再访问就能够命中。空间局部性
:数组是连续存放的,那么访问了a[i],那么可能下一次会访问a[i + 1]或者a[i - 1],临近的数据页可能会被访问到,此时对于临近的数据也可以存放到高速缓冲中,提高命中率。虚拟内存
定义:基于局部性原理,在程序装入时,可以将程序中很快会用到的部分装入内存,暂时用不到的部分留在外存,就可以让程序开始执行。
在操作系统的管理下,在用户看来似乎有一个比实际内存大得多的内存,就是虚拟内存。
特征:
虚拟内存技术
:运行一个作业多次调入内存,对于采用连续分配方式,会不方便实现。因此虚拟内存的实现都需要建立在离散分配的内存管理方式基础上。
基于之前学习的传统的离散存储管理方式,如基本分页、基本分段、基本段页式,这些都是在存储管理方式的基础之上。
基于这种传统的非连续分配存储管理之上,实现了虚拟内存的管理方式:
对于这些"请求"xxx存储管理方式与传统的非连续分配存储管理区别如下:
虚拟内存中增加了两个功能分别对应上面访问信息不存在、空间不够:
对于请求调页则是属于【请求分页存储管理功能】。
对于请求调段、段置换则是【请求分段存储管理功能】。
请求分页存储管理与基本分页存储管理的主要区别:
与基本分页管理相比,请求分页管理中,为了实现【“请求调页”】,操作系统需要知道每个页面是否已经调入内存;如果没有调入,那么也需要知道该页面在外存中存放的位置。
当内存空间不够时,要实现【“页面置换”】,操作系统需要通过某些指标来决定到底换出哪个页面;有的页面没有修改过,就不用浪费时间写回外存。有的页面修改过,就需要将外存中的旧数据覆盖。因此,操作系统也需要记录各个页面是否被修改过信息。
基本分页管理的页表:
请求分页管理的页表也被称为:请求页表
。
相对比页表结构多增加了四个字段:状态位
、访问字段
、修改位
、外存地址
。
假设此时要访问的逻辑地址(页号,页内偏移量)= (0,1024)
首先访问0号页面,由于页表中页号为0的页表项状态位为0,即表示当前要访问的页面不在内存,此时会发生一个缺页中断,接着由操作系统的之后操作系统的缺页中断处理程序会负责处理这个中断,此时由于中断处理过程需要进行I/O操作,会把页面从外存调入到内存。
情况1:若是内存中有空闲块,则为进程分配一个空闲块,将所缺页面装入该块,并修改页表中相应的页表项(页号为0的内存块号、状态位):
情况2:若是内存块中没有空闲块,如下图中的内存条中已经没有了空闲a内存块了,此时页面置换算法会选择一个页面淘汰,此时选中页号为2淘汰。
可以看到页号为2的修改位为1,表示该页面在内存期间被修改过(可以看到),则需要写回外存【若是为0,那么就无需修改写回外存】,将外存中的数据给覆盖掉,如下图:
接着将对应的内存C号块写入到页号为0的位置,修改状态位为1;并且将页号为2的记录信息清空:
此时就完成了逻辑地址的访问过程(缺页过程从外存调入内存的过程)。
为了实现请求调页功能,需要引入缺页中断机构!
缺页中断
:当前执行的指令想要访问的目标页面未调入内存而产生的,属于内中断(故障)。
一条指令在执行期间,可能会发生多次缺页中断。(如:copy A to B,即将逻辑地址A中的数据复制到逻辑地址B,而A、B属于不同的页面,则有可能产生两次中断)。
注意:只有引入了缺页中断机构,系统才能实现请求调页这样的事情。
请求分页存储管理与基本分页存储管理的主要区别:
新增的步骤如下:
1、请求调页:插到页表项时进行判断。
2、页面置换:需要调入页面,但是没有空闲内存块时进行。
3、需要修改请求页表中新增的表项。
关于快表中的数据说明:若是快表中有的一定是在内存中有的,若是页面被换出外存,快表中的相应表项也要删除。
发生时机:调页发生在页不在内存时,置换是在内存不满的情况。
相应的流程图如下说明:
补充细节:
①只有"写指令"才需要修改"修改位"。并且,一般来说只需修改快表中的数据,只有要将快表项删除时才需要写回内存中的慢表,这样可以减少访存次数。
②和普通的中断处理一样,缺页中断依然需要保留CPU现场。
③需要用某种"页面置换算法"来决定一个换出页面。
④换入/换出页面都需要启动慢速的I/O操作,可见,如果换入/换出太频繁,会有很大的开销。
⑤页面调入内存后,需要修改慢表,同时也需要将表项复制到快表中。
起因:若是内存空间不够,那么会将内存暂时用不到的信息换出到外存,对于选择哪个页面则是通过【页面置换算法】实现的。
目标:好的页面置换算法应该是追求更少的缺页率。
最佳置换算法(OPT,Optimal)
:每次选择淘汰的页面将会使以后用不适用,或者在最长时间不再被访问的页面,这样可以保证最低的缺页率。
思路:从当前要访问的页面往后来看,选择一个最远访问的且已经在内存块中的。
实际举例:当访问页面为2时,内存没有空间此时会执行最佳置换算法,最近访问的内存块为1、0、7,我们可以从访问的2页面后来去查看,可以看到最长时间没有访问的是7,优先会先访问到0、1,此时就会选择将内存块1中的7给置换掉。
整个过程中缺页中断发生了9次,页面置换发生了6次。
缺页率 = 缺页中断次数 / 总次数 = 9 / 20 = 45%
。
总结:最佳置换算法可以保证最低的缺页率,但实际上,只有进程执行的过程中才能知道接下来访问的是哪个页面。操作系统无法提前预判页面访问序列。因此,最佳置换算法是无法实现的。
先进先出置换算法(FIFO)
:每次选择淘汰的页面时最早进入内存的页面。
实现方式:将调入内存的页面根据调入的先后顺序排成一个队列,需要换出页面时选择队头页面即可。一个队列的最大长度取决于系统为进程分配了多少内存块。
举例:我们的内存块有三块,那么队列中最大长度则为3块,当我们访问第四个页面的时候,此时内存块满了就会发生置换算法,此时我们的队列顺序为1->2->3,队头的元素为3,那么此时我们会现将内存块1中的3给置换为当前访问的页面0。
分配三个内存块缺页次数:9次。
分配四个内存块缺页次数:10次。
当分配四个内存块时缺页的次数反而是比分配三个内存块的缺页次数更多这种现象:成为Belady异常,当为进程分配的物理块数增大时
结论:只有FIFO算法会产生Belady异常,另外,FIFO算法虽然实现简单,但是该算法与进程实际运行时的规律不适应,因为先进入的页面也有可能经常被访问,因此算法性能差 。
缺陷:对于先进先出这种规则并没有考虑到进程实际运行时候的一些规律,不太科学。
最近最久未使用置换算法(LRU,least recently used)
:每次淘汰的页面时最近最久未使用的页面。
实现方法:赋予每个页面对应的页表项中,用访问字段记录该页面自上次被访问以来所经历的时间t。当需要淘汰一个页面时,选择现有页面中t值最大的,即最近最久未使用的页面。
举例:当访问页面3的时候,手算方式则是我们将处于内存块中的所有页面拿到,接着来看当前访问页面3之前访问的一个最久未被访问的页面也就是7,最终将处于内存块3中的页面7给置换为我们访问的页面3。
优劣:该算法的实现需要专门的硬件支持,虽然算法性能好,但是实现困难,开销大。
评论:性能最接近最佳置换算法的。
引由:最佳置换算法性能最好,但无法实现;先进先出算法实现简单,但是算法性能差;最近最久未使用置换算法性能好最接近OPT算法,但是实现起来需要使用专门的硬件支持,算法开销大;
时钟置换算法
:是一种性能和开销较为均衡的算法,又称CLOCK算法或最近未用算法(NRU,Not Recently Used)。
**为什么称为最近未用算法?**会为每个页设置一个访问位,访问位为1的时候表示最近访问过,设置为0表示没有用过。
下面介绍两种时钟置换算法:简单的CLOCK算法实现方式、改进型的时钟置换算法。
实现思路:
①为每个页面设置一个访问位,再将内存中的页面都通过链接指针链接成一个循环队列。
②当某页被访问时,其访问位置为1。
③当需要淘汰一个页面时,只需要检查页的访问位,如果是0,就选择将该页换出;如果是1,那么将它置为0,暂不换,继续检查下一个页面。
④若是第一轮扫描中所有页面都是1,则将这些页面访问位都置为0后,再进行第二抡扫描(第二轮扫描中一定会有访问位为0的页面)
选择一个淘汰页面扫描次数:最多会经过两轮扫描。
实际案例:假设系统为某进程分配了五个内存块,并考虑到有以下页面号引用串 1,3,4,2,5,6,3,4,7
首先访问1、3、4、2、5,由于都是第一次访问,此时每个页为1,指针会指向1号页:
此时要访问6号页面,由于此时内存块已满5个页,那么会进行选择淘汰一个页面,从循环队列的队首开始扫描找到访问位为0的页面,由于初始值都是为1,那么经过一轮扫描过后,此时访问位都置为1,重新回到了1号页:
接着此时开始第二轮扫描,由于1号页的访问位为0,此时会将1号页置换出去,替换为6号页并设置访问位为1,此时指针指向了3号页:
由于3号页的访问位为0,此时就会直接将3号页置为1:
接着开始访问4号页,由于4号页同样访问位为0,那么此时会设置为1:
最后访问页面7,接着指针会指向2号页,由于2号页的访问位为0,此时会将2号页置换为7:
至此所有的访问页面情况都已结束。
简单时钟置换算法评价:简单的时钟置换算法仅考虑到一个页面是否被访问过,事实上,如果被淘汰的页面没有被修改过,就不需要执行I/O操作写回外存,只有被淘汰的页面被修改过,才会需要写回外存。
在使用了一个访问位基础上增加了一个修改位,使用(访问位,修改位)的形式表示个页面状态。
算法规则:
注意:由于第二轮已将所有帧的访问位设为0,因此经过第三轮、第四轮扫描一定会有一个帧被选中,因此改进型CLOCK置换算法选择一个淘汰页面最多会进行四轮扫描。
选择一个淘汰页面扫描次数:最多会经过四轮扫描。
实际案例(四种情况):
首选初始化五个页面的(访问位,修改位),此时初始的指针指向(0,1),我们来看一看各种不同的情况。
情况1:通过第一轮扫描找到访问页进行置换
首先指针指向为(0,1),经过三次扫描可以直接在第一轮中找到(0,0)的页并对其进行替换。
情况二: 会在第二轮中找到要淘汰的页
首先进入第一轮,尝试找到第一个(0,0)的页面,由于五个页面都没有找到此时重新回到第一个指针指向的位置:
此时进入第二轮寻找(此时每寻找一次就会将访问位置为0),寻找第一个(0,1)页面,经过两次扫描,找到了该替换的页面:
情况三:在第三轮中扫描找到淘汰页
第一轮开始扫描(0,0)对应的页面,没有找到。
第二轮开始扫描(0,1)的页面,这一轮每扫描一个访问位就会设置为0,依旧没有找到(0,1)的页面,此时通过第二轮扫描所有页的访问位都置为了0。
第三轮扫描,寻找(0,0)的页面,经过两次扫描找到了(0,0)的页面,并将其进行置换。
情况四:在第四轮扫描过程中确定了淘汰页面
第一轮、第二轮扫描都没有找到,此时指针依旧指向第一个页面,其中经过第二轮扫描会将每一个位的访问位设置为0:
第三轮寻找的是(0,0)的页面,由于在所有页面中都没有找到,此时扫描一轮后重新又回到了(0,1)页面。
第四轮开始扫描寻找(0,1)页面,在一次扫描后即可找到淘汰的页面:
驻留集
:指请求分页存储管理中给进程分配的物理块的集合。
多种情况:
此时人们就这分配页面多少,选择一个合适的驻留级大小以及驻留集大小是否可变提出了两种分配策略:固定分配、可变分配。
固定分配
:操作系统为每个进程分配一组固定数目的物理块,在进程运行期间不再改变。即,驻留集大小不变。可变分配
:先为每个进程分配一定数目的物理块,在进程运行期间,可根据情况做适当的增加或减少。即,驻留集大小可变。当页面置换的时候,置换的范围应该是什么,此时人们又提出了两个置换范围的策略:局部置换和全局置换。
局部置换
:发生缺页时只能选进程自己的物理块进行置换。全局置换
:可以将操作系统保留的空闲物理块分配给缺页进程,也可以将别的进程持有的物理块置换到外存,再分配给缺页进程。这两个置换的区别在于:置换的页面是否只能是自己的。
对于分配与置换的策略搭配方案如下:
并不会出现固定分配、全局置换的策略。
搭配思路:
缺点:很难再刚开始就确定每个进程需要分配多少物理块才合理。
评价:灵活性比较低
搭配思路:
问题:采用这种策略,只要某进程发生缺页,都能够获得新的物理块,仅当空闲物理块用完时,系统才选择一个未锁定的页面调出,被选择调出的页可能是系统中任何一个进程中的页,那么这个被选中的进程拥有的物理块会减少,缺页率会增加。
评价:只要进程发生了缺页就给它分配一个新的物理块,这种方式是不太合理的。
搭配思路:
评价:可以将这个系统的多道程序并发度,保持在相对理想的位置。
思路:根据局部性原理,一次调入若干个相邻的页面可能比一次调入一个页面更高效,但是若提前调入的页面大多数都没被访问过,则是低效的。
预测性:可以预测不久之后可能访问到的页面,将它们预先调入内存,但目前预测率成功只有50%。
何时调入:运行前进程的首次调入,由程序员指出调入哪些部分。
思路:进程在运行期间发现缺页时才将所缺页面调入内存,由这种策略调入的页面一定会被访问到,但由于每次只能调入一页,而每次调页时都要磁盘I/O操作,因此I/O开销较大。
何时调入:运行时调入。
磁盘存储区分为:对换区、文件区。
文件区更大,平时程序在没有运行的时候,相关数据会存放在文件区。
若是系统拥有足够的对换区:页面的调入、调出都是在内存与对换区之间进行的,这样可以保证页面的调入、调出速度很快。
说明:页面调入调出都是在内存和对换区之间的。
若是系统缺少足够对换区空间:凡是不会被修改的数据会直接从文件区调入,由于这些页面不会被修改。
UNIX方式
:运行之前进程有关的数据全部放在文件区,故未使用过的页面,都可以从文件去调入;若被使用过的页面需要换出,则写回对换区,下次需要时从对换区调入。
抖动、颠簸现象
:刚刚换出的页面马上又要换入内存,刚刚换入的页面马上又要换出外存,这种频繁的页面调度行为。
主要原因:进程频繁访问的页面数目高于可用的物理块数(分配给进程的物理块不够)。
为了研究应该为每个进程分配多少个物理块,Denning提出了进程"工作集"的概念。
工作集
工作集
:指在某段时间间隔里,进程实际访问页面的集合。
操作系统会根据"窗口尺寸"来算出工作集,例:
某进程的页面访问序列如下,窗口尺寸为4,各时刻的工作集为:
实际应用中:窗口的大小会设置的更大一些10、15等,
根据工作集的大小分配多少个内存块,同时可以根据工作集的大小来确定驻留集的大小。
工作集大小范围:工作集可能小于窗口尺寸,实际应用中,操作系统可以统计进程的工作集大小,根据工作集大小给进程分配若干个内存块。如:窗口尺寸为5,经过一段时间的检测发现某进程的工作集最大为3,那么说明该进程有很好的局部性,可以给这个进程分配3个以上的内存块即可满足进程的运行需要。
扩展:基于局部性原理,进程在一段时间内访问的页面与不久之后会访问的页面是有相关性的。因此可以根据进程近期访问的页面集合(工作集)来设计一种页面置换算法,选择一个不在工作集中的页面进行淘汰。
内存映射文件(Memory-Mapped Files)
:操作系统向上层程序员提供的功能(系统调用)。
为什么说内存映射文件可以让程序员更加方便使用文件数据呢?
传统的文件访问方式:
若是进程想要访问这个文件的数据需要按照以下步骤完成:
①open
系统调用:打开文件。
②seek
系统调用:将读写指针移动到某个位置。
③read
系统调用:从读写指针所指位置读入若干数据(从磁盘读入内存)
④若是对数据进行修改,还会执行write
系统调用,将内存中的指定数据,写回磁盘(根据读写指针确定要写回的位置)。
采用内存映射文件(Memory-Mapped Files)
,对应的访问方式步骤如下:
①open
系统调用:打开文件。
②mmap
系统调用:让操作系统将文件映射到进程的虚拟地址空间。
此时这个系统调用会给程序返回一个指针,指针会指向刚才映射的这片区域起始地址,接下来就可以用访问内存的方式这些数据,通过使用这个指针可以访问到任何一个数据:
注意目前上图里的分配的内存映射文件是灰色,原因是在使用map系统调用之后,操作系统只是建立了文件数据和内存之间的一个映射关系,但并没有把文件数据直接给读入内存,目前相当于是缺页的状态。
若是访问的数据是在文件的第二块,而当前这部分操作系统发现这一块数据还没有调入主存,此时就会出现一个缺页异常,操作系统会自动的把这一块数据给读入主存。
特别点:读入数据的过程是由操作系统自动帮我们完成的,并且我们若是想要修改数据也可以直接在这个内存中进行修改。
③close
系统调用。
若是这个进程不再使用这个文件,进程可以使用close系统调用来关闭文件,关闭文件之后,操作系统会自动的把文件当中被修改的数据写回磁盘。
好处:使用内存映射文件,程序员对于文件数据访问方便很懂,只需要直到这个文件在内存当中的起始地址,之后就可以像访问内存的方式访问这个文件当中的数据,并且文件数据的读入或者写出都是由操作系统自动完成的。
功能:多个进程可以映射到同一文件,实现共享!
若是进程1与进程2都是对同一块磁盘文件读取,那么他们会在将对应的文件映射到自己的虚拟地址空间,映射到相同的物理内存上:
操作系统会将这两块虚拟地址空间映射到相同的物理内存上:
此时在物理内存中,一个文件对应同一份数据,当一个进程修改文件数据时,另一个进程可以立马看到。
1、既然使用虚拟内存后,会出现大量的换入换出,那么怎么解决这个问题呢?
整理者:长路 时间:2023.7.13-15