- 什么是内存,有何作用
- 进程运行的基本原理
- 指令的工作原理
- 逻辑地址 vs 物理地址
- 如何实现地址转换
- 从写程序到程序运行的过程
内存可存放数据。程序执行前需要先放到内存中才能被CPU处理——缓和CPU与硬盘之间的速度矛盾。
思考:在多道程序环境下,系统中会有多个程序并发执行,也就是说会有多个程序的数据需要同时放到内存中。那么,如何区分各个程序的数据是放在什么地方的呢?——给内存的存储单元编地址。
像酒店的房间一样。内存中也有一个一个的“小房间”,每个小房间就是一个“存储单元”。
内存地址从0开始,每个地址对应一个存储单元。
如果计算机“按字节编址”,则每个存储单元大小为1字节,即1B,即8个二进制位。
如果字长为16位的计算机“按字编址”,则每个存储单元大小为1个字,每个字的大小为16个二进制位。
2 10 2^{10} 210 = 1K (千)
2 20 = 1 M 2^{20} = 1M 220=1M (兆,百万)
2 30 2^{30} 230 = 1G (十亿,千兆)
一台手机/电脑有4GB内存,是什么意思?
是指该内存中可以存放 4 ∗ 2 30 4 * 2^{30} 4∗230个字节。如果是按字节编址的话,也就是有 4 ∗ 2 30 = 2 32 4 * 2^{30} = 2^{32} 4∗230=232个“小房间”。
注:有的题目会告诉我们内存的大小,让我们确定地址长度应该是多少(即要多少个二进制位才能表示相应数目的存储单元)。
这么多“小房间”,需要 2 32 2^{32} 232个地址才能一一标识,所以地址需要用32个二进制位来表示(0 ~ 2 32 − 1 2^{32} - 1 232−1)。
高级语言代码经过编译之后会形成与它等价的一系列机器指令。每一条指令就是让CPU干一件具体的事情。
当程序运行的时候,系统会为它建立一个进程。进程中会有一片区域叫“程序段”,就是用来存放代码,即一系列指令的。另外,还有一个部分叫“数据段”,用来存放这个程序所处理的一些变量等。
CPU执行这几条指令的过程如下。
首先CPU取出指令1。
该指令有这样几个部分构成:第一个部分(图中红色部分)叫操作码,指明了这条指令是要干一件什么事情。(这里的编码仅仅是一个示例,是胡乱编的,理解该意思即可)假设这个红色的操作码,它是让CPU做一个“数据传送”的事情。此外,后面的两个部分,又指明了这个操作需要用到的必要的参数(从哪个地址单元取数据,并存入哪个变量中)。
CPU执行指令1时,首先根据操作码00101100
可知这是一条数据传送指令,此外根据后面两个参数可知,它要到内存的01001111
单元中取出数据,并存入00000011
地址处。
CPU执行指令2时。首先根据操作码10010010
可知这是一条加法指令。之后它就知道,它要将地址00000011
中的数据的值加00000001
(即1)。
CPU执行指令3时,同指令1。之后,寄存器当中的11就写回了内存对应地址中。
当然,此处所述内容并不严谨,理解意思即可。对于更加规范的表述,到计算机组成原理当中学习。
指令的工作基于“地址”。每个地址对应一个数据的存储单元。
可见,我们写的代码要翻译成CPU能识别的指令。这些指令会告诉CPU应该去内存的哪个地址读/写数据,这个数据应该做什么样的处理。在这个例子中,我们默认这个进程的相关内容从地址#0开始连续存放,指令中的地址参数直接给出了变量x的实际存放地址(物理地址)。
思考:如果这个进程不是从地址#0开始存放的,会影响指令的正常执行吗?
C语言程序经过编译链接后生成的指令,其中指明的是逻辑地址。如果将指令从#0
地址开始装入内存,则不会出现问题;如果不是从#0
地址开始装入,却仍然直接将逻辑地址当做实际的物理地址来操作的话,就会出现问题。
因此,此处有一个重要的问题:如何将指令中的逻辑地址转换为物理地址。
策略:三种装入方式
1.绝对装入
2.可重定位装入(静态重定位)
3.动态运行时装入(动态重定位)
绝对装入:在编译时,如果知道程序将放到内存中的哪个位置,编译程序将产生绝对地址的目标代码。装入程序按照装入模块中的地址,将程序和数据装入内存。
例如:如果知道装入模块要从地址为100的地方开始存放。
在编译的时候就把逻辑地址转换成最终的物理地址。
这种策略,灵活性很差,如果换一台电脑,而另一台电脑无法满足其从地址100处开始存放的要求,就无法运行了。且绝对装入只适用于单道程序环境。单道程序阶段,此时还没产生操作系统,所以这一策略是由编译器完成的,而非操作系统。
静态重定位:又称可重定位装入。编译、链接后的装入模块的地址都是从0开始的(逻辑地址),指令中使用的地址、数据存放的地址都是相对于起始地址而言的逻辑地址。可根据内存的当前情况,将装入模块装入到内存的适当位置。装入时对地址进行“重定位”,将逻辑地址变换为物理地址(地址变换是在装入时一次完成的)。
装入内存的时候再进行地址的转换。
这种策略的特点是,在一个作业装入内存时,必须分配其要求的全部内存空间,如果没有足够的内存,就不能装入该作业。
(难道不分配全部内存空间,还能只分配部分空间?——这个问题在后面学过虚拟存储就会明白)
作业一旦进入内存后,在运行期间就不能再移动,也不能再申请内存空间。
(很好理解,因为我们已经定好了每条指令要操作的地址,此时如果发生移动,则指令操作的地址又会出错)
用于早期的多道批处理操作系统。
动态重定位:又称动态运行时装入。编译、链接后的装入模块的地址都是从0开始的。装入程序把装入模块装入内存后,并不会立即把逻辑地址转换为物理地址,而是把地址转换推迟到程序真正要执行时才进行。因此装入内存后所有的地址依然是逻辑地址。这种方式需要一个重定位寄存器的支持。
重定位寄存器中存放了起始地址。CPU在执行每条指令时,都会将指令中指定的逻辑地址与重定位寄存器中的地址进行相加,从而得到要操作的物理地址。
采用动态重定位时允许程序在内存中发生移动。并且可将程序分配到不连续的存储区中;在程序运行前只需装入它的部分代码即可投入运行,然后在程序运行期间,根据需要动态申请分配内存;便于程序段的共享,可以向用户提供一个比存储空间大得多的地址空间。(在学习虚拟存储管理之后,对这段描述会有更深入的理解,此处暂时不展开)
用于现代操作系统。
编译:由编译程序将用户源代码编译成若干个目标模块(编译就是把高级语言翻译为机器语言)。
链接:由链接程序将编译后形成的一组目标模块,以及所需库函数链接在一起,形成一个完整的装入模块。
装入(装载):由装入程序将装入模块装入内存运行。而上面介绍的三种装入策略,可以完成由逻辑地址到物理地址的转换。
接下来介绍链接的三种方式:
1.静态链接:
在程序运行之前,先将各目标模块及它们所需的库函数连接成一个完整的可执行文件(装入模块)之后不再拆开。
2.装入时动态链接:
将各目标模块装入内存时,边装入边链接的链接方式。
3.运行时动态链接:
在程序执行中需要该目标模块时,才对它进行链接。其优点是便于修改和更新,便于实现对目标模块的共享。
先执行main()函数,于是将目标模块1装入内存;在执行期间用到了a()函数,于是将目标模块2装入内存。而b()函数始终没有使用,便不需装入目标模块3。(更灵活,提高内存利用率)
- 内存空间的分配与回收
- 内存空间的扩充
- 地址转换
- 存储保护
操作系统作为系统资源的管理者,当然也需要对内存进行管理,要管些什么呢?
1.操作系统负责内存空间的分配与回收。
2.操作系统需要提供某种技术从逻辑上对内存空间进行扩充。
游戏GTA的大小超过60GB,按理来说这个游戏程序运行之前需要把60GB数据全部放入内存。然而,实际我的电脑内存才4GB,但为什么这个游戏可以顺利运行呢?——虚拟技术(操作系统的虚拟性)
3.操作系统需要提供地址转换功能,负责程序的逻辑地址与物理地址的转换。
为了使编程更方便,程序员写程序时应该只需要关注指令、数据的逻辑地址。而逻辑地址到物理地址的转换(这个过程称为地址重定位)应该由操作系统负责,这样就保证了程序员在写程序时不需要关注物理内存的实际情况。(上小节介绍的三种装入方式)
4.操作系统需要提供内存保护功能。保证各进程在各自存储空间内运行,互不干扰。
内存保护可采取两种方法:
方法一:在CPU中设置一对上、下限寄存器,存放进程的上、下限地址。进程的指令要访问某个地址时,CPU检查是否越界。只有在上下限地址之间,才允许访问。
方法二:采用重定位寄存器(又称基址寄存器)和界地址寄存器(又称限长寄存器)进行越界检查。重定位寄存器中存放的是进程的起始物理地址。界地址寄存器中存放的是进程的最大逻辑地址。
内存管理的概念
- 内存空间的分配与回收
- 内存空间的扩充
- 覆盖技术
- 交换技术
- 虚拟存储技术
- 地址转换
- 存储保护
早期的计算机内存很小,比如IBM推出的第一台PC机最大只支持1MB大小的内存。因此经常会出现内存大小不够的情况。
后来人们引入了覆盖技术,用来解决“程序大小超过物理内存总和”的问题。
覆盖技术的思想:将程序分为多个段(多个模块)。常用的段常驻内存,不常用的段在需要时调入内存。
内存中分为一个“固定区”和若干个“覆盖区”。
需要常驻内存的段放在“固定区”中,调入后就不再调出(除非运行结束)。
不常用的段放在“覆盖区”,需要用到时调入内存,用不到时调出内存。
必须由程序员声明覆盖结构,操作系统完成自动覆盖。
缺点:对用户不透明,增加了用户编程负担。
覆盖技术只用于早期的操作系统中,现在已成为历史。
交换(对换)技术的设计思想:内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已具备运行条件的进程换入内存(进程在内存与磁盘间动态调度)(也就是之前讲的中级调度)。
进程的PCB是需要常驻内存的。
中级调度(内存调度),就是要决定将哪个处于挂起状态的进程重新调入内存。
暂时换出外存等待的进程状态为挂起状态(挂起态,suspend)
挂起态又可以进一步细分为就绪挂起、阻塞挂起两种状态。
问题:
1.应该在外存(磁盘)的什么位置保存被换出的进程?
2.什么时候应该交换?
3.应该换出哪些进程?
1.具有对换功能的操作系统中,通常把磁盘空间分为文件区和对换区两部分。文件区主要用于存放文件,主要追求存储空间的利用率,因此对文件区空间的管理采用离散分配方式;对换区空间只占磁盘空间的小部分,被换出的进程数据就存放在对换区。由于对换的速度直接影响到系统的整体速度,因此对换区空间的管理主要追求换入换出速度,因此通常对换区采用连续分配方式(学过文件管理章节后即可理解)。总之,对换区的I/O速度比文件区的更快。
2.交换通常在许多进程运行且内存吃紧时进行,而系统负荷降低就暂停。例如:在发现许多进程运行时经常发生缺页,就说明内存紧张,此时可以换出一些进程;如果缺页率明显下降,就可以暂停换出。
3.可优先换出阻塞进程,因为处于阻塞态的进程就算在内存中也无法运行。可换出优先级低的进程。此外,为了防止优先级低的进程在被调入内存后很快又被调出(发生饥饿),有的系统还会考虑进程在内存的驻留时间(驻留时间太短的先不要调出)。
(注意:PCB会常驻内存,不会被换出外存)所以所谓的换出外存,并不是把进程涉及的所有数据一个不漏地全部换到外存里。操作系统为了保持对换出进程的管理,PCB的信息还是需要放在内存当中的。
内存管理的概念
- 内存空间的分配与回收
- 连续分配管理方式
- 单一连续分配
- 固定分区分配
- 动态分区分配
- 非连续分配管理方式
- 内存空间的扩充
- 地址转换
- 存储保护
连续分配:指为用户进程分配的必须是一个连续的内存空间。
在单一连续分配方式中,内存被分为系统区和用户区。
系统区通常位于内存的低地址部分,用于存放操作系统相关数据;用户区用于存放用户进程相关数据。
内存中只能有一道用户程序,用户程序独占整个用户区空间。
此时用户进程A在用户区当中,并独占整个用户区空间,其他的用户进程无法进入。
优点:实现简单;无外部碎片;可以采用覆盖技术扩充内存;不一定需要采取内存保护(eg:早期的PC操作系统MS-DOS)
缺点:只能用于单用户、单任务的操作系统中;有内部碎片;存储器利用率极低。
内部碎片:分配给某进程的内存区域中,如果有些部分没有用上,就是“内部碎片”。上图中蓝色部分都属于用户进程A的内部碎片。
20世纪60年代出现了支持多道程序的系统,为了能在内存中装入多道程序,且这些程序之间又不会相互干扰,于是将整个用户空间划分为若干个固定大小的分区,在每个分区中只装入一道作业,这样就形成了最早的、最简单的一种可运行多道程序的内存管理方式。
固定分区分配:
- 分区大小相等
- 分区大小不等
分区大小相等:缺乏灵活性,但是很适合用于用一台计算机控制多个相同对象的场合。(比如:钢铁厂有n个相同的炼钢炉,就可把内存分为n个大小相等的区域存放n个炼钢炉控制程序)
分区大小不等:增加了灵活性,可以满足不同大小的进程需求。根据常在系统中运行的作业大小情况进行划分。(比如:划分多个小分区、适量中等分区、少量大分区)
操作系统需要建立一个数据结构——分区说明表,来实现各个分区的分配与回收。每个表项对应一个分区,通常按分区大小排列。每个表项包括对应分区的大小、起始地址、状态(是否已分配)。
分区号 | 大小(MB) | 起始地址(M) | 状态 |
---|---|---|---|
1 | 2 | 8 | 未分配 |
2 | 2 | 10 | 未分配 |
3 | 4 | 12 | 已分配 |
… | … | … | … |
用数据结构的数组(或链表)即可表示这个表。
当某用户程序要装入内存时,由操作系统内核程序根据用户程序大小检索该表,从中找到一个能满足大小的、未分配的分区,将之分配给该程序,然后修改状态为“已分配”。
优点:实现简单,无外部碎片。
缺点:a.当用户程序太大时,可能所有的分区都不能满足需求,此时不得不采用覆盖技术来解决,但这又会降低性能;b.会产生内部碎片,内存利用率低。
动态分区分配又称为可变分区分配。这种分配方式不会预先划分内存分区,而是在进程装入内存时,根据进程的大小动态地建立分区,并使分区的大小正好适合进程的需要。因此系统分区的大小和数目是可变的。
例如,某计算机内存大小为64MB,系统区8MB,用户区共56MB,依次到来了三个进程。
问题:
1.系统要用什么样的数据结构记录内存的使用情况?
2.当很多个空闲分区都能满足需求时,应该选择哪个分区进行分配?
例如,如上图,此时若到来一个4MB的进程,它是要放在中间那片空间,还是下面那片空间?
3.如何进行分区的分配与回收操作?
假如进程3离开了内存空间,此时这个18MB的空间是不是需要和它上下的空闲空间进行合并呢?
【问题1】系统要用什么样的数据结构记录内存的使用情况?
两种常用的数据结构
- 空闲分区表
- 空闲分区链
分区号 | 分区大小(MB) | 起始地址(M) | 状态 |
---|---|---|---|
1 | 20 | 8 | 空闲 |
2 | 10 | 32 | 空闲 |
3 | 4 | 60 | 空闲 |
空闲分区表:每个空闲分区对应一个表项。表项中包含分区号、分区大小、分区起始地址等信息。
空闲分区链:每个分区的起始部分和末尾部分分别设置前向指针和后向指针。起始部分处还可记录分区大小等信息。
【问题2】当很多个空闲分区都能满足要求时,应该选择哪个分区进行分配?
把一个新作业装入内存时,须按照一定的动态分区分配算法,从空闲分区表(或空闲分区链)中选出一个分区分配给该作业。由于分配算法对系统性能有很大的影响,因此人们对它进行了广泛的研究。
【问题3】如何进行分区的分配与回收操作?
假设系统采用的数据结构是“空闲分区表”,如何分配?
情况1:新到的进程5(4MB)被分配到了大小为20MB的空闲区处。空闲分区表中的空闲分区数量不变,只是其中的大小信息做了修改。
情况2:新到的进程5(4MB)被分配到了大小为4MB的空闲区处。空闲分区数量减1。
对于空闲分区链是同理的。
假设系统采用的数据结构是“空闲分区表”,如何回收?
情况1:回收区的后面有一个相邻的空闲分区。
如回收了上图的进程4,则两个相邻的空闲分区合并为一个。
情况2:回收区的前面有一个相邻的空闲分区。
如图,回收了进程3。
这和情况1类似,两个相邻的空闲分区合并为一个。
情况3:回收区的前、后各有一个相邻的空闲分区。回收后,需要把三个相邻的空闲分区合并为一个。
情况4:回收区的前、后都没有相邻的空闲分区。会新增一个表项。
注:各表项的顺序不一定按照地址递增顺序排列,具体的排列方式需要依据动态分区分配算法来确定。
动态分区分配没有内部碎片,但是有外部碎片。
内部碎片,分配给某进程的内存区域中,如果有些部分没有用上。
外部碎片,是指内存中的某些空闲分区由于太小而难以利用。
在经历一系列进程的换入换出后,可能会出现上图所示情况。
内存中空闲空间的总和本来可以满足某进程的要求,但由于进程需要的是一整块连续的内存空间,因此这些“碎片”不能满足进程的需求。
可以通过紧凑(拼凑,Compaction)技术来解决外部碎片。
其实很简单,就是把各个进程挪位,都攒到一起,腾出一块大的空闲区间。
思考:动态分区分配应该使用哪种装入方式?——动态重定位。
“紧凑”之后需要做什么处理?——需要把各个进程的起始地址做修改(进程PCB中)。
**动态分区分配算法:**在动态分区分配方式中,当很多个空闲分区都能满足需求时,应该选择哪个分区进行分配?
动态分区分配算法:
- 首次适应算法(First Fit)
- 最佳适应算法(Best Fit)
- 最坏适应算法(Worst Fit)
- 邻近适应算法(Next Fit)
**算法思想:**每次都从低地址开始查找,找到第一个能满足大小的空闲分区。
如何实现:空闲分区以地址递增的次序排列。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
将空闲分区以地址递增的顺序排列。每次分配时,从头到尾依次检索,找到能放的分区进行分配。
算法思想:由于动态分区分配是一种连续分配方式,为各进程分配的空间必须是连续的一整片区域。因此为了保证当“大进程”到来时能有连续的大片空间,可以尽可能多地留下大片的空闲区,即,优先使用更小的空闲区。
如何实现:空闲分区按容量递增次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。(这样一来,每次匹配的都是当前最小且适合的分区)
如果在某次分配分区之后,整个空闲分区链(表)的递增次序被破坏,则需要重新排序为容量递增次序。
缺点:每次都选最小的分区进行分配,会留下越来越多的、很小的、难以利用的内存块。因此这种方法会产生很多的外部碎片。
又称最大适应算法(Largest Fit)
算法思想:为了解决最佳适应算法的问题——即留下太多难以利用的小碎片,可以在每次分配时优先使用最大的连续空闲区,这样分配后剩余的空闲区就不会太小,更方便使用。
如何实现:空闲分区按容量递减次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。(实际上就是第一个分区)
同样,如果容量递减的次序被破坏,则需要重新排序。
缺点:每次都选最大的分区进行分配,虽然可以让分配后留下的空闲区更大,更可用,但是这种方式会导致较大的连续空闲区被迅速用完。如果之后有“大进程”到达,就没有内存分区可用了。
算法思想:首次适应算法,每次都从链头开始查找,这可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销。如果每次都从上次查找结束的位置开始检索,就能解决上述问题。
如何实现:空闲分区以地址递增的顺序排列(可排成一个循环链表)。每次分配内存时从上次查找结束的位置开始查找空闲分区链(或表),找到大小能满足要求的第一个空闲分区。
首次适应算法每次都要从头查找,每次都需要检索低地址的小分区。
但是这种规则也决定了当低地址部分有更小的分区可以满足需求时,会更有可能用到低地址部分的小分区,也会更有可能把高地址部分的大分区保留下来(最佳适应算法的优点)。
邻近适应算法的规则可能会导致无论低地址、高地址部分的空闲分区,都有相同的概率被使用,也就导致了高地址部分的大分区更可能被使用,划分为小分区。最后导致无大分区可用(最大适应算法的缺点)。
综合来看,四种算法中,首次适应算法的效果反而更好。
最佳适应算法、最坏适应算法,可能要在分配分区的过程中经常对分区表进行重新排序,因此算法开销大。而首次适应和邻近适应不存在重新排序的问题,算法开销小。
内存管理的概念
- 内存空间的分配与回收
- 连续分配管理方式
- 非连续分配管理方式
- 基本分页存储管理(本节内容)
- 基本分段存储管理
- 段页式存储管理
- 内存空间的扩充
- 地址转换
- 存储保护
连续分配:为用户进程分配的必须是一个连续的内存空间。
非连续分配:为用户进程分配的可以是一些分散的内存空间。
将内存空间分为一个个大小相等的分区(比如:每个分区4KB),每个分区就是一个“页框”(页框 = 页帧 = 内存块 = 物理块 = 物理页面)。每个页框有一个编号,即“页框号”(页框号 = 页帧号 = 内存块号 = 物理块号 = 物理页号),页框号从0开始。
为了能够把进程放到页框里,将进程的逻辑地址空间也分为与页框大小相等的一个个部分,每个部分称为一个“页”或“页面”。每个页面也有一个编号,即“页号”,页号也是从0开始。
Tips:初学易混:
页、页面 vs 页框、页帧、物理页;
页号、页面号 vs 页框号、页帧号、物理页号。
操作系统以页框为单位为各个进程分配内存空间。进程的每个页面分别放入一个页框中。也就是说,进程的页面与内存的页框有一一对应的关系。
各个页面不必连续存放,可以放到不相邻的各个页框中。
为了能知道进程的每个页面在内存中存放的位置,操作系统要为每个进程建立一张页表。
注:页表通常存在PCB(进程控制块)中。
1.一个进程对应一张页表
2.进程的每个页面对应一个页表项
3.每个页表项由“页号”和“块号”组成
4.页表记录进程页面和实际存放的内存块之间的映射关系
5.每个页表项的长度是相同的
假设某系统物理内存大小为4GB,页面大小为4KB,则每个页表项至少应该为多少字节?
内存块大小 = 页面大小 = 4KB = 2 12 2^{12} 212B
→ 4GB的内存总共会被分为 2 32 2^{32} 232/ 2 12 2^{12} 212 = 2 20 2^{20} 220个内存块
→ 内存块号的范围应该是0 ~ 2 20 − 1 2^{20}-1 220−1 (编号从0开始)
→ 内存块号至少要用20bit来表示
→ 至少要用3B来表示块号(3*8=24bit)(按字节存储而非按bit存储)
重要重要重要考点:计算机中内存块的数量 → 页表项中块号至少占多少字节
问题:那么页号应该占多少个字节?
答:页表项连续存放,因此页号可以是隐含的,不占存储空间(类比数组)
例如,假设页表中的各页表项从内存地址为X的地方开始连续存放,如何找到页号为i的页表项?(每个页表项占3B,且都是连续存放)——
i号页表项的存放地址 = X + 3 * i
→ 由于页号是隐含的,因此每个页表项占3B,存储整个页表至少需要3*(n+1)B
注意:页表记录的只是内存块号,而不是内存块的起始地址。J号内存块的起始地址 = J * 内存块大小
。
进程在内存中连续存放时,操作系统是如何实现逻辑地址到物理地址的转换的?
将进程地址空间分页之后,操作系统该如何实现逻辑地址到物理地址的转换?
特点:虽然进程的各个页面是离散存放的,但是页面内部是连续存放的。
如果要访问逻辑地址A,则
①确定逻辑地址A对应的“页号”P
②找到P号页面在内存中的起始地址(需要查页表)
③确定逻辑地址A的“页内偏移量”W
逻辑地址A对应的物理地址 = P号页面在内存中的起始地址 + 页内偏移量W
在某计算机系统中,页面大小是50B。某进程逻辑地址空间大小为200B,则逻辑地址110对应的页号、页内偏移量是多少?
如何计算:
页号 = 逻辑地址 / 页面长度 (向下取整)
页内偏移量 = 逻辑地址 % 页面长度(取余)
页号 = 110/50 = 2
页内偏移量 = 110%50 = 10
逻辑地址可以拆分为(页号,页内偏移量)
通过页号查询页表,可知页面在内存中的起始地址。
页面在内存中的起始地址 + 页内偏移量 = 实际的物理地址
在计算机内部,地址是用二进制表示的,如果页面大小刚好是2的整数幂,则计算机硬件可以很快速地把逻辑地址拆分成(页号,页内偏移量)。
假设某计算机用32个二进制位表示逻辑地址,页面大小为4KB = 2 12 2^{12} 212B = 4096B
0号页的逻辑地址范围应该是0~4095,用二进制表示应该是:
00000000000000000000000000000000~00000000000000000000111111111111
1号页的逻辑地址范围应该是4096~8191,用二进制表示应该是:
00000000000000000001000000000000~00000000000000000001111111111111
2号页的逻辑地址范围应该是8192~12287,用二进制表示应该是:
00000000000000000010000000000000~00000000000000000010111111111111
页号 = 逻辑地址/页面长度(向下取整)
页内偏移量 = 逻辑地址%页面长度(取余)
Eg:逻辑地址2,用二进制表示应该是00000000000000000000000000000010
页号 = 2/4096 = 0 = 00000000000000000000,页内偏移量 = 2%4096 = 2 = 000000000010
Eg:逻辑地址4097,用二进制表示应该是00000000000000000001000000000001
页号 = 4097/4096 = 1 = 00000000000000000001,页内偏移量 = 4097%4096 = 1 = 000000000001
(原理是二进制乘除法,左移右移)
结论:如果每个页面大小为 2 k 2^k 2kB,用二进制数表示逻辑地址,则末尾k位即为页内偏移量,其余部分就是页号。
此外,这种表示方法对于内存中的页框也是有好处的。
假设物理地址也用32个二进制位表示,则由于内存块的大小 = 页面大小,因此:
0号内存块的起始物理地址是00000000000000000000000000000000
1号内存块的起始物理地址是00000000000000000001000000000000
2号内存块的起始物理地址是00000000000000000010000000000000
3号内存块的起始物理地址是00000000000000000011000000000000
根据页号可以查询页表,而页表中记录的只是内存块号,而不是内存块的起始地址。
J号内存块的起始地址 = J * 内存块大小
假设,通过查询页表得知1号页面存放的内存块号是9(1001),则
9号内存块的起始地址 = 9 * 4096 = 00000000000000001001000000000000
则逻辑地址4097对应的物理地址 = 页面在内存中存放的起始地址 + 页内偏移量 = (00000000000000000001000000000001)
结论:如果页面大小刚好是2的整数幂,则只需把页表中记录的物理块号拼接上页内偏移量就能得到对应的物理地址。
总结:页面大小刚好是2的整数幂有什么好处?
①逻辑地址的拆分更加迅速——如果每个页面大小为 2 k 2^k 2kB,用二进制数表示逻辑地址,则末尾k位即为页内偏移量,其余部分就是页号。因此,如果让每个页面的大小为2的整数幂,计算机硬件就可以很方便地得出一个逻辑地址对应的页号和页内偏移量,而无需进行除法运算,从而提升了运行速度。
②物理地址的计算更加迅速——根据逻辑地址得到页号,根据页号查询页表从而找到页面存放的内存块号,将二进制表示的内存块号和页内偏移量拼接起来,就可以得到最终的物理地址。
分页存储管理的逻辑地址结构如下所示:
地址结构包含两部分:前一部分为页号,后一部分为页内偏移量W。在上图所示的例子中,地址长度为32位,其中0-11位为“页内偏移量”,或称“页内地址”;12-31位为“页号”。
如果有k位表示“页内偏移量”,则说明该系统中一个页面的大小是 2 k 2^k 2k个内存单元。
如果有M位表示“页号”,则说明在该系统中,一个进程最多允许有 2 M 2^M 2M个页面。
重要重要重要:页面大小 ←→ 页内偏移量位数 → 逻辑地址结构。
Tips:有些题目中页面大小也有可能真的不是2的整数次幂,此时还是得用最原始的方法计算。
页号 = 逻辑地址/页面长度(向下取整)
页内偏移量 = 逻辑地址%页面长度(取余)
(这一小节的知识也属于“基本分页存储管理”内的)
结合上一小节理解基本地址变换机构(用于实现逻辑地址到物理地址转换的一组硬件机构)的原理和流程。
基本地址变换机构可以借助进程的页表将逻辑地址转换为物理地址。
通常会在系统中设置一个页表寄存器(PTR),存放页表在内存中的起始地址F和页表长度M。
进程未执行时,页表的始址 和 页表长度 放在进程控制块(PCB)中,当进程被调度时,操作系统内核会把它们放到页表寄存器中。
注意:页面大小是2的整数幂。
之前提到,进程上处理机运行时,系统会为它“恢复运行环境”,将PCB中的一些数据放入相应寄存器当中。
设页面大小为L,逻辑地址A到物理地址E的变换过程如下:(上图的文字描述)
①计算页号P和页内偏移量W(如果用十进制数手算,则P=A/L,W=A%L;但是在计算机实际运行时,逻辑地址结构是固定不变的,因此计算机硬件可以更快地得到二进制表示的页号、页内偏移量)。
②比较页号P和页表长度M,若P≥M,则产生越界中断,否则继续执行。(注意:页号是从0开始的,而页表长度至少是1,因此P=M时也会越界)
③页表中页号P对应的页表项地址 = 页表起始地址F + 页号P * 页表项长度,取出该页表项内容b,即为内存块号。(注意区分页表项长度、页表长度、页面大小的区别。页表长度指的是这个页表中总共有几个页表项,即总共有几个页;页表项长度指的是每个页表项占多大的存储空间;页面大小指的是一个页面占多大的存储空间)
④计算E = b*L + W
,用得到的物理地址E去访存。(如果内存块号、页面偏移量是用二进制表示的,那么把二者拼接起来就是最终的物理地址了)
动手验证:假设页面大小L = 1KB,最终要访问的内存块号b = 2,页内偏移量W = 1023。
①尝试用
E = b*L + W
计算目标物理地址。②尝试把内存块号、页内偏移量用二进制表示,并把它们拼接起来得到物理地址。
对比①②的结果是否一致。
【例题】
若页面大小L为1K字节,页号2对应的内存块号b = 8,将逻辑地址A = 2500转换为物理地址E。
等价描述:某系统==按字节寻址,逻辑地址结构中,页内偏移量占10位==[说明一个页面的大小为 2 10 2^{10} 210B = 1KB],页号2对应的内存块号b = 8,将逻辑地址A = 2500转换为物理地址E。
①计算页号、页内偏移量
页号P = A/L = 2500/1024 = 2;页内偏移量W = A%L = 2500%1024 = 452
②根据题中条件可知,页号2没有越界,其存放的内存块号b = 8
③物理地址 E = b * L + W = 8 * 1024 + 452 = 8644
在分页存储管理(页式管理)的系统中,只要确定了每个页面的大小,逻辑地址结构就确定了。因此,页式管理中地址是一维的。即,只要给出一个逻辑地址,系统就可以自动地算出页号、页内偏移量两个部分,并不需要显式地告诉系统这个逻辑地址中,页内偏移量占多少位。
每个页表项的长度是相同的,页号是“隐含”的。
Eg:假设某系统物理内存大小为4GB,页面大小为4KB,内存总共会被划分为 2 32 2^{32} 232/ 2 12 2^{12} 212 = 2 20 2^{20} 220个内存块,因此内存块号的范围应该是0 ~ 2 20 2^{20} 220 - 1。
因此至少要20个二进制位才能表示这么多的内存块号,因此至少要3个字节才够(每个字节8个二进制位,3个字节共24个二进制位)。
每个页表项的块号占3个字节。(这样在二进制下才能表示出题目要求的那么多种情况)
各页表项会按顺序连续地存放在内存中。
如果该页表在内存中存放的起始地址为X,则M号页对应的页表项是存放在内存地址为X + 3*M
。
但是接着思考一个问题。一个页面为4KB,则每个页框可以存放4096/3 = 1365个页表项。但是这个页框会剩余4096%3 = 1B页内碎片。
因此,1365号页表项存放的地址为X + 3*1365 + 1
(加1就是中间空的这1B)
因此可以发现,如果我们的页表项不能装满整个页框的话,在我们查找页表项的时候是会带来麻烦的。
而如果每个页表项占4字节,则每个页框刚好可存放1024个页表项。
1024号页表项虽然是存放在下一个页框中的,但是它的地址依然可以用X + 4*1024
得出。
结论:理论上,页表项长度为3B即可表示内存块号的范围,但是,为了方便页表的查询,常常会让一个页表项占更多的字节,使得每个页面恰好可以装得下整数个页表项。
进程页表通常是装在连续的内存块中的。
具有快表的地址变换机构:(是基本地址变换机构的改进版本)
- 什么是快表(TLB)
- 引入快表后,地址的变换过程
- 局部性原理
快表,又称联想寄存器(TLB,translation lookaside buffer),是一种访问速度比内存快很多的高速缓存(TLB不是内存),用来存放最近访问的页表项的副本,可以加速地址变换的速度。与此对应,内存中的页表常称为慢表。
思考:能否把整个页表都放在TLB中?
不能,太贵了。既要兼顾系统运行的整体效率,同时还要考虑造价成本。因此才有了如图所示多级的存储设备。
假设某进程执行过程中要依次访问(0, 0)、(0, 4)、(0, 8)这几个逻辑地址。(页号,页内偏移量)
当这个进程上处理机运行的时候,系统会清空快表的内容。(注意,快表是一个专门的硬件,当进程切换的时候,快表的内容也需要被清除)
(假设:访问TLB只需1us,访问内存需要100us)
首先,这个进程想要访问的逻辑地址是页号为0、页内偏移量为0的地址。先检查页号是否有越界异常,发现并没有越界。接下来,就会查询快表,但是由于这个进程刚上处理机运行、快表内容还为空,因此在快表中找不到页号为0所对应的页表项,因此快表没有命中。由于快表没有命中,因此接下来不得不去访问内存中的慢表。在慢表中查询后得到对应的内存块号为600,然后找到最终的物理地址。【注意,在查询过慢表后,同时会把查询结果复制一份放到快表当中】
接下来这个进程想要访问的地址是页号为0、页内偏移量为4的逻辑地址。刚开始会进行越界异常的判断,发现没有越界。接下来要查询快表,确认一下这个页号所对应的页表项是否在快表当中。显然,这次查询可以命中。因此,接下来就不需要再查询慢表,而是直接用这个内存块号和偏移量得到最终想要的物理地址。
而如果没有快表的话,每一次都必须要花100us的时间访问内存,而有了快表的话,每当快表命中一次,该次过程就只需要花费1us的时间。这也是快表可以加快地址变换的原因。
需要注意的是,快表中存放的是页表中的一部分副本。(快表成本更高,容量更小)不过这已经可以很大的提升系统效率了。
①CPU给出逻辑地址,由某个硬件算得页号、页内偏移量,将页号与快表中的所有页号进行比较。
②如果找到匹配的页号,说明要访问的页表项在快表中有副本,则直接从中取出该页对应的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表命中,则访问某个逻辑地址仅需一次访存即可。
③如果没有找到匹配的页号,则需要访问内存中的页表,找到对应页表项,得到页面存放的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表未命中,则访问某个逻辑地址需要两次访存(注意:在找到页表项后,应同时将其存入快表,以便后面可能的再次访问。但若快表已满,则必须按照一定的算法对旧的页表项进行替换)
由于查询快表的速度比查询页表的速度快很多,因此只要快表命中,就可以节省很多时间。
因为局部性原理(一会儿再解释),一般来说快表的命中率可以达到90%以上。
我们先看看如果命中率达到90%,效率会提高多少。
【例】
某系统使用基本分页存储管理,并采用了具有快表的地址变换机构。访问一次快表耗时1us,访问一次内存耗时100us。若快表的命中率为90%,那么访问一个逻辑地址的平均耗时是多少?
根据上面的分析可知,对于一个逻辑地址,系统会先查询快表,如果快表命中的话,可以直接得到最终想要访问的物理地址并访问该物理地址对应的内存单元。
即,若快表命中的话,需要(1+100)us
的访问时间。而快表命中的占比为90%,则给它再*0.9
的权重。
根据分析可知,若快表没有命中的话,接下来系统需要查询慢表,查询慢表就会访问一次内存,最后得到物理地址后还要再访问一次内存单元。即,它需要(1+100+100)us
的访问时间,再*0.1
的权重。
因此,访问一个逻辑地址的平均耗时是(1+100)*0.9 + (1+100+100)*0.1 = 111us
而如果没有快表的话,系统访问一个逻辑地址所需要的耗时就应该是200us
。
此外,有的系统支持快表和慢表同时查找,如果是这样,平均耗时应该是(1+100)*0.9 + (100+100)*0.1 = 110.9us
。(区别在于,快表没有命中时的那1us不见了,这点用甘特图很好理解,如下图)
要注意看题目中是否说了“支持快表和慢表同时查找”,还是只有快表未命中后才查找慢表。
为什么快表中只存放了慢表的一部分,就能让效率提高那么多呢?这是因为著名的局部性原理。
来看一个例子。
int i = 0;
int a[100];
while(i < 100) {
a[i] = i;
i++;
}
假设这个程序是存放在10号页面当中的,这个程序中用到的数组等变量是存放在23号页面当中的。
那么,在这个程序运行的过程中,它肯定会频繁地访问10号页面、23号页面。
因为它是有一个while循环的结构,它不断地循环,无非就是不断地访问10号页面中的那一条指令。
时间局部性:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问。(因为程序中存在大量的循环)
空间局部性:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。(因为很多数据在内存中都是连续存放的)
上小节介绍的基本地址变换机构中,每次要访问一个逻辑地址,都需要查询内存中的页表。由于局部性原理,可能连续很多次查到的都是同一个页表项。这就是为什么快表机构能够大幅度提高系统效能。
(上图中的“访存”就是“访问内存”,因此快表命中时只需一次访存,快表不是内存)
TLB和普通Cache的区别——TLB中只有页表项的副本,而普通Cache中可能会有其他各种数据的副本。
两级页表
- 单级页表存在什么问题?如何解决?
- 两级页表的原理、逻辑地址结构
- 如何实现地址变换?
- 两级页表问题需要注意的几个细节
某计算机系统按字节寻址,支持32位的逻辑地址,采用分页存储管理,页面大小为4KB,页表项长度为4B。
4KB = 2 12 2^{12} 212B,因此页内地址要用12位表示,剩余20位表示页号。
因此,该系统中用户进程最多有 2 20 2^{20} 220页。
相应的,一个进程的页表中,最多会有 2 20 2^{20} 220 = 1M = 1,048,576个页表项。
所以一个页表最大需要 2 20 ∗ 4 B = 2 22 B 2^{20} * 4B = 2^{22}B 220∗4B=222B。
共需要 2 22 / 2 12 = 2 10 2^{22}/2^{12}=2^{10} 222/212=210个页框存储该页表。
根据页号查询页表的方法: K 号页对应的页表项存放位置 = 页表地址 + K ∗ 4 K号页对应的页表项存放位置 = 页表地址+K*4 K号页对应的页表项存放位置=页表地址+K∗4
要在所有的页表项都连续存放的基础上才能用这种方法找到页表项。因此,需要专门给进程分配 2 10 = 1024 2^{10}=1024 210=1024个连续的页框来存放它的页表。
这是单级页表存在的第一个很明显的问题:
连续分配这么多页框是很吃力的。而且这样也丧失了离散存储最大的优点。
根据局部性原理可知,很多时候,进程在一段时间内只需要访问某几个页面就可以正常运行了。因此没有必要让整个页表都常驻内存。
这是单级页表存在的第二个问题。
问题一:页表必须连续存放,因此当页表很大时,需要占用很多个连续的页框。
问题二:没有必要让整个页表常驻内存,因为进程在一段时间内可能只需要访问某几个特定的页面。
我们是如何解决进程在内存中必须连续存储的问题的?
将进程地址空间分页,并为其建立一张页表,记录各页面的存放位置。
同样的思路,也可以用于解决“页表必须连续存放”的问题,把必须连续存放的页表再分页。
可将长长的页表进行分组,使每个内存块刚好可以放入一个分组(比如上个例子中,页面大小4KB,每个页表项4B,每个页面可存放1K个页表项,因此每1K个连续的页表项为一组,每组刚好占一个内存块,再将各组离散地放到各个内存块中)
疑问:这说半天,又是把一个页面分成1K个页表项,又是把连续1K个页表项分为一组,最后得到的不就又是一个页面吗?不还是把一个页面放进一个页框吗?扯半天干啥。不就是说,不需要连续地把所有页面放入连续的页框中了,而只需一个页面对应一个页框、分散地存放即可了。
另外,要为离散分配的页表再建立一张页表称为页目录表,或称外层页表,或称顶层页表。
32位逻辑地址空间,页表项大小为4B,页面大小为4KB,则页内地址占12位。
按照单级页表来说,需要连续的1024个内存块才行。
在把大页表拆分成一个一个小页表之后。由于每一个小页表的大小都是4KB,因此,每一个小页表都可以放到不同的内存块当中。
需要注意这些页表项的编号,例如原来大页表中的1024号,变成了1#页表中的0号。
为了记录这些小页表的相对顺序以及它们在内存当中存放的位置,还要为这些小页表再建立上一级的页表。
叫页目录表。相应的,刚才的小页表叫做二级页表。
在采用这种两级页表结构之后,相应地,逻辑地址结构也需要发生变化。
我们可以把原来的20位的页号地址分为各10位的两部分。不难发现,10位地址刚好可以表示0~1023,分别刚好可以表示一级页号、二级页号。
例:将逻辑地址(0000000000,0000000001,111111111111)转换为物理地址(用十进制表示)。
①按照地址结构将逻辑地址拆分成三部分。
②从PCB中读出页目录表始址,再根据一级页号查页目录表,找到下一级页表在内存中的存放位置。
③根据二级页号查表,找到最终想访问的内存块号。
④结合页内偏移量得到物理地址。
最终要访问的内存块号为4。
该内存块的起始地址为 4 ∗ 4096 = 16384 4*4096=16384 4∗4096=16384。
由题干中条件可知,页内偏移量为1023。
最终的物理地址为 16384 + 1023 = 17407 16384+1023=17407 16384+1023=17407。
至此,我们已经解决了单级页表的第一个问题。
可以在需要访问页面时才把页面调入内存(虚拟存储技术)。可以在页表项中增加一个标志位,用于表示该页面是否已经调入内存。
1、若采用多级页表机制,则各级页表的大小不能超过一个页面。
【例】
某系统按字节编址,采用40位逻辑地址,页面大小为4KB,页表项大小为4B,假设采用纯页式存储,则需要采用()级页表,页内偏移量为()位?
首先,页内偏移量是最好确定的。页面大小为4KB,又是按字节寻址,说明在这一个页面中需要有 4 K = 2 12 4K = 2^{12} 4K=212个地址,因此页内偏移量为12位。
那么页号占28位。
另外,页面大小为4KB,页表项大小为4B,则每个页面可存放 2 10 2^{10} 210个页表项。
由于采用多级页表机制时,各级页表的大小不能超过一个页面。所以各级页表当中,页表项的个数不能超过 2 10 2^{10} 210个。那相应的,各级页表的页号也就不会超过10位。那么,28位的页号我就可以把它分为三个部分,即分出三级页表。
总之,不能违背采用多级页表时,各级页表的大小不能超过一个页面的规定。所以,如果你只分两级页表,比如18位+10位,那么你18位的那个页表最多可能有 2 18 2^{18} 218个页表项,显然违背了这一原则。总之,这里务必是要划分三级页表的。
2、两级页表的访存次数分析(假设没有快表机构)
第一次访存:访问内存中的页目录表。
第二次访存:访问内存中的二级页表。
第三次访存:访问目标内存单元。
两级页表访问一个物理地址,需要三次访存。
单级页表只需要两次访存。因此,采用两级页表时,对于某一逻辑地址的访问就需要花费更多的时间。
n级页表访问逻辑地址时,访存次数应为n+1次(没有快表结构)。
基本分段存储管理
与“分页”最大的区别就是——离散分配时所分配地址空间的基本单位不同。
- 什么是分段(类似于分页管理中的“分页”)
- 什么是段表(类似于分页管理中的“页表”)
- 如何实现地址变换
- 分段、分页管理的对比
进程的地址空间:按照程序自身的逻辑关系划分为若干个段,每个段都有一个段名(在低级语言中,程序员使用段名来编程),每段从0开始编址。
内存分配规则:以段为单位进行分配,每个段在内存中占据连续空间,但各段之间可以不相邻。
由于是按逻辑功能模块划分,用户编程更方便,程序的可读性更高。(而且段名是程序员自己定的,程序员编程时操作的是段名,背后CPU实际操作的是各个段号)
LOAD 1,[D] | <A>; //将分段D中A单元内的值读入寄存器1
STORE 1,[X] | <B>; //将寄存器1的内容存入X分段的B单元
分段系统的逻辑地址结构由段号(段名)和段内地址(段内偏移量)所组成,如:
段号的位数决定了每个进程最多可以分几个段。
段内地址位数决定了每个段的最大长度是多少。
在上述例子中,若系统是按字节寻址的,则
段号占16位,因此在该系统中,每个进程最多有 2 16 = 64 K 2^{16}=64K 216=64K个段。
段内地址占16位,因此每个段的最大长度是 2 16 = 64 K B 2^{16}=64KB 216=64KB。
LOAD 1,[D] | <A>; //将分段D中A单元内的值读入寄存器1
STORE 1,[X] | <B>; //将寄存器1的内容存入X分段的B单元
对于这两条代码的理解。写程序时使用的段名[D]、[X]会被编译程序翻译成对应段号。单元、
单元会被编译程序翻译成段内地址。
问题:既然程序分成多个段,并且各个段能离散地装入内存,那么,为了保证程序能正常运行,就要保证必须能够从物理内存中找到各个逻辑段的存放位置。为此,需要为每个进程建立一张段映射表,简称“段表”。
1.每个段对应一个段表项,其中记录了该段在内存中的起始位置(又称“基址”)和段的长度。
和页表不同的是,每个段表项要有一个“段长”属性,而页表项不需要。这是因为,每个段的段长是不固定的,而每个页面的大小是固定的。
2.各个段表项的长度是相同的。例如:某系统按字节寻址,采用分段存储管理,逻辑地址结构为(段号16位,段内地址16位),因此用16位即可表示最大段长。物理内存大小为4GB(可用32位表示整个物理内存地址空间)。因此,可以让每个段表项占16+32=48位,即6B。由于段表项长度相同,因此段号可以是隐含的,不占存储空间。若段表存放的起始地址为M,则K号段对应的段表项存放的地址为 M + K ∗ 6 M+K*6 M+K∗6。
LOAD 1,[D] | <A>; //将分段D中A单元内的值读入寄存器1
经过编译器编译后,形成等价的机器指令:“取出段号为2,段内地址位1024的内存单元中的内容,放到寄存器1中”。
此外,在计算机看来,段号、段内地址当然都是用二进制表示的了:00000000000000100000010000000000
由逻辑地址转化为物理地址的过程。
页是信息的物理单位,一个页面的大小是多少,一个进程能分成多少个页面。
段是信息的逻辑单位,要考虑一个完整的逻辑段,以及段与段之间的关系。
分页的主要目的是为了实现离散分配,提高内存利用率。
分段的主要目的是为了更好地满足用户需求,方便用户编程。
分页只是系统管理上的需要,完全是系统行为,对用户是不可见的,也就是说,用户并不知道自己的进程到底是分为了几个页面,甚至都不知道自己的进程是不是被分页了。
分段对用户是可见的,用户编程时需要显式地给出段名,所以用户是知道的,知道分为了几个段、每个段的段名是什么。
页的大小是固定的,由系统决定。
段的长度不固定,取决于用户编写的程序。
分页的用户进程地址空间是一维的,程序员只需给出一个记忆符即可表示一个地址。
分段的用户进程地址空间是二维的,程序员在标识一个地址时,既要给出段名,也要给出段内地址。
分页存储管理中,在用户看来自己的这个进程的存储空间是连续的。
但是在分段存储管理中,用户自己也知道自己的进程地址空间是被分为了一个一个的段,并且每个段会占据一串连续的地址空间。
因此,分页管理中,进程的地址空间是一维的,而分段管理中,是二维的。
分段比分页更容易实现信息的共享和保护。
比如之前的生产者—消费者问题。对于一个生产者进程,它可以从逻辑上被分为若干个段。比如1号段是用来判断缓冲区此时是否可以访问。
其实除了这一个生产者之外,其他的生产者、消费者进程也都应该可以访问1号段,它们也都需要判断此时缓冲区是否可以访问。
因此,这一段的代码,应该允许生产者进程、消费者进程共享地访问。
那么怎么实现共享地使用这一个段呢?
假设生产者进程A中的1号段对应的是内存中120K的地址。那么此时,假如消费者进程B想要和它共享地使用这个段,就很简单,可以让这个消费者进程的某一个段表项,同样也是指向这个地址。
即,如果想要实现共享地访问段,那么只需要让各个进程的段表项指向同一个段即可。
此处需要注意的是,只有不能被修改的代码(也称为纯代码或可重入代码)(不属于临界资源),这样的代码是可以共享的。(比如printf("Hello World!");
完全是能够被共享的,不会出问题的)
可修改的代码是不能共享的。(例如,有一个代码段中有很多变量,各进程并发地同时访问可能造成数据不一致)
再看看如果使用分页,还能不能共享了?
可见,如果采用分页的方式。如果让消费者进程的某个页表项指向某个页面来实现共享,显然不合理,因为一个页面中会包含多个逻辑部分。比如我想实现上图中绿色部分代码的共享,就无法实现了,除非橙色和紫色部分也能共享。总之,页面不是按照逻辑模块划分的,这就很难实现对于某一页或某几页的共享。
对于便于对信息进行保护这一点,也是很好理解的。
如果分段,我们可以方便地对于某个逻辑段进行访问控制,而如果采用分页,道理和上面一样,很难实现某一模块的访问控制,因为一页中可能是混杂的模块。因此分页很难实现信息保护。
访问一个逻辑地址需要的访存次数:
分页(单级页表):第一次访存——查内存中的页表,第二次访存——访问目标内存单元。总共两次访存。
分段:第一次访存——查内存中的段表,第二次访存——访问目标内存单元。总共两次访存。
与分页系统类似,分段系统中也可以引入快表机构,将近期访问过的段表项放到快表中,这样可以减少一次对内存的访问(当快表命中时),加快地址变换速度。
段页式管理方式
- 分页、分段管理方式中最大的优缺点
- 分段+分页的结合——段页式管理方式
- 段表、页表
- 如何实现地址变换
优点 | 缺点 | |
---|---|---|
分页管理 | 内存空间利用率高,不会产生外部碎片,只会有少量的页内碎片 | 不方便按照逻辑模块实现信息的共享和保护 |
分段管理 | 很方便按照逻辑模块实现信息的共享和保护 | 如果段长过大,为其分配很大的连续空间会很不方便。另外,段式管理会产生外部碎片 |
段式管理会产生外部碎片的原因如上图所示。但同时,我们也可以使用“紧凑”来解决,但是也是需要付出较大的时间代价了。
将进程按逻辑模块分段,之后对各个段,还会进行分页。(例如每个页面4KB)
同时,也将内存空间分为大小相同的内存块(或叫页框/页帧/物理块)。进程的各个页面会放到内存中的各个内存块当中。
分段系统的逻辑地址由段号和段内地址(段内偏移量)组成。如:
但对于段页式管理来说,进程被分为段之后,在段内还要再进行分页。所以,段页式系统的逻辑地址结构由段号、页号、页内地址(页内偏移量)组成,如:
此处的页号、页内偏移量,其实就是分段管理当中的段内地址进行进一步拆分的结果。
需要注意的是:
段号的位数决定了每个进程最多可以分几个段;
页号位数决定了每个段最大有多少页;
页内偏移量决定了页面大小、内存块大小是多少。
在上述例子中,若系统是按字节寻址的,则
段号占16位,因此在该系统中,每个进程最多有 2 16 = 64 K 2^{16}=64K 216=64K个段;
页号占4位,因此每个段最多有 2 4 = 16 2^4=16 24=16页;
页内偏移量占12位,因此每个页面/每个内存块大小为 2 12 = 4096 = 4 K B 2^{12}=4096=4KB 212=4096=4KB。
在段页式管理的结构中,“分段”对用户是可见的,程序员编程时需要显式地给出段号、段内地址。而将各段“分页”对用户是不可见的。系统会根据段内地址自动划分页号和页内偏移量。
因此段页式管理的地址结构是二维的。
与之前的分段管理、分页管理同样,在进行段页式管理之后,我们需要知道各个数据存放的位置。
对于一个进程,首先分段。每个段对应一个段表项,每个段表项由段号、页表长度、**页表存放块号(页表起始地址)**组成。每个段表项长度相等,段号是隐含的。
根据页表存放块号即可算出页表存放的内存地址,找到之后,就可以读出这个页表。通过读取页表,可知有两个页面,以及其存放的地址。每个页面对应一个页表项,每个页表项由页号、页面存放的内存块号组成。每个页表项长度相等,页号是隐含的。
段页式存储结构的段表和段式存储结构中的段表是不一样的。而对于页表来说,和页式存储还是比较相同的。
一个进程只对应一个段表,但有可能对应多个页表。
内存管理的概念
内存空间的分配与回收
- 连续分配
- 单一连续分配
- 固定分区分配
- 动态分区分配
- 非连续分配
- 基本分页存储管理
- 基本分段存储管理
- 基本段页式存储管理
内存空间的扩充
覆盖技术
交换技术
在传统存储管理方式的基础上引入了交换技术、覆盖技术,使得内存利用率有所提升,并且能从逻辑上扩充内存容量。
虚拟存储技术
地址转换
存储保护
虚拟内存的基本概念
- 传统存储管理方式的特征、缺点
- 局部性原理
- 时间局部性
- 空间局部性
- 高速缓存技术
- 虚拟内存的定义和特征
- 如何实现虚拟内存技术
传统存储管理
- 连续分配
- 单一连续分配
- 固定分区分配
- 动态分区分配
- 非连续分配
- 基本分页存储管理
- 基本分段存储管理
- 基本段页式存储管理
很多暂时用不到的数据也会长期占用内存,导致内存利用率不高。
一次性:作业必须一次性全部装入内存后才能开始运行。这会造成两个问题:①作业很大时,不能全部装入内存,导致大作业无法运行;②当大量作业要求运行时,由于内存无法容纳所有作业,因此只有少量作业能运行,导致多道程序并发度下降。
驻留性:一旦作业被装入内存,就会一直驻留在内存中,直至作业运行结束。事实上,在一个时间段内,只需要访问作业的一小部分数据即可正常运行,这就导致了内存中会驻留大量的、暂时用不到的数据,浪费了宝贵的内存资源。
(比如在玩GTA游戏的时候,我们的角色此时处于A场景中,那么B场景的相关资源就不需要加载到内存当中,此时只需要放入A场景的相关资源,就能够保证这个游戏的正常运行了)
传统存储管理的这两个缺点,都可以用虚拟存储技术来解决。
虚拟存储技术的提出,其实是基于著名的局部性原理(之前的小节中也有所提到)。
时间局部性:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问。(因为程序中存在大量的循环)
空间局部性:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。(因为很多数据在内存中都是连续存放的,并且程序的指令也是顺序地在内存中存放的)
int i = 0;
int a[100];
while(i < 100) {
a[i] = i;
i++;
}
基于局部性原理,在程序装入时,可以将程序中很快会用到的部分装入内存,暂时用不到的部分留在外存,就可以让程序开始执行。
在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。
若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。
在操作系统的管理下,在用户看来似乎有一个比实际内存大得多的内存,这就是虚拟内存。
这是操作系统虚拟性的一个体现。
实际的物理内存大小没有变,只是在逻辑上进行了扩充。
虚拟内存有以下三个主要特征:
多次性:无需在作业运行时一次性全部装入内存,而是允许被分成多次调入内存。
对换性:在作业运行时无需一直常驻内存,而是允许在作业运行过程中,将作业换入、换出。
虚拟性:从逻辑上扩充了内存的容量,使用户看到的内存容量,远大于实际的容量。
虚拟存储技术,允许一个作业分多次调入内存。如果采用连续分配方式,会不方便实现。因此,虚拟内存的实现需要建立在离散分配的内存管理方式基础上。
传统的非连续(离散)分配存储管理
- 基本分页存储管理
- 基本分段存储管理
- 基本段页式存储管理
虚拟内存的实现
- 请求分页存储管理
- 请求分段存储管理
- 请求段页式存储管理
主要区别:
在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。操作系统要提供请求调页(或请求调段)功能。
若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。操作系统要提供页面置换(或段置换)的功能。
请求分页存储管理与基本分页存储管理的主要区别:
在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。操作系统要提供请求调页功能,将缺失页面从外存调入内存。
若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。操作系统要提供页面置换的功能,将暂时用不到的页面换出外存。
请求分页管理方式
- 页表机制
- 缺页中断机构
- 地址变换机构
(注意与基本分页存储管理的页表机制、地址变换流程对比学习)
与基本分页管理相比,请求分页管理中,为了实现“请求调页”,操作系统需要知道每个页面是否已经调入内存;如果还没调入,那么也需要知道该页面在外存中存放的位置。
当内存空间不够时,要实现“页面置换”,操作系统需要通过某些指标来决定到底换出哪个页面(比如访问次数最少的,比如距上次访问最久的);有的页面没有被修改过,就不用再浪费时间写回外存(因为外存当中存放的那个副本,和内存当中的是一模一样的)。有的页面修改过,就需要将外存中的旧数据覆盖。因此,操作系统也需要记录各个页面是否被修改的信息。
有的地方也会把右边这个页表叫做“请求页表”,左边的叫做“基本页表”。
在请求分页系统中,每当要访问的页面不在内存时,便产生一个缺页中断,然后由操作系统的缺页中断处理程序处理中断。
此时缺页的进程阻塞,放入阻塞队列,调页完成后再将其唤醒,放回就绪队列。
如果内存中有空闲块,则为进程分配一个空闲块,将所缺页面装入该块,并修改页表中相应的页表项。
假设此时要访问逻辑地址 = (页号,页内偏移量)= (0,1024)
如果内存中没有空闲块,则由页面置换算法选择一个页面淘汰,若该页面在内存期间被修改过,则要将其写回外存。未修改过的页面不用写回外存。
比如说,页面置换算法选中了要淘汰2号页面,根据“修改位”可知2号页面的内容是被修改过的,所以2号页面的内容需要从内存(c号块)再写回外存(z号块)。
此时,内存当中的c号块就空出来了,可以让0号页使用。
相应地,我们也需要把页表的内容进行修改。将换出内存的页面,以及换入内存的页面相应的数据作更改。
缺页中断是因为当前执行的指令想要访问的目标页面未调入内存而产生的,因此属于内中断。
一条指令在执行期间,可能产生多次缺页中断。(如:copy A to B,即将逻辑地址A中的数据复制到逻辑地址B,而A、B属于不同的页面,则有可能产生两次中断)
请求分页存储管理与基本分页存储管理的主要区别:
在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。操作系统要提供请求调页功能,将缺失页面从外存调入内存。
若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。操作系统要提供页面置换功能,将暂时用不到的页面换出外存。
新增步骤1:请求调页(查到页表项时,对页表项是否在内存中进行判断)
新增步骤2:页面置换(需要调入页面,但没有空闲内存块时进行)
新增步骤3:需要修改请求页表中新增的表项
重点需要关注与分析,这三个步骤要在什么时候进行。
拿着逻辑地址,首先同样的需要判断页号是否越界。之后,先看看快表中是否命中,若没有命中,则需要查找慢表。
在慢表中找到对应页表项后,若对应页面未调入内存,则产生缺页中断,之后由操作系统的缺页中断处理程序进行处理。
对于上述过程,需要注意一个地方:存在于快表中的页面一定是在内存中的。若某个页面被换出外存,则快表中的相应表项也要删除,否则可能访问错误的页面。
上图为请求分页地址变换的具体流程图。红框部分是其与基本分页相比增加的步骤。
补充说明:
①只有“写指令”才需要修改“修改位”。并且,一般来说只需修改快表中的数据,只有要将快表项删除时才需要再把快表中的表项再复制到慢表当中。这样可以减少访存次数。
②和普通的中断处理一样,缺页中断处理依然需要保留CPU现场。
③需要用某种“页面置换算法”来决定一个换出页面(下节内容)。
④换入/换出页面都需要启动慢速的I/O操作,可见,如果换入/换出太频繁,会有很大的开销。
⑤页面调入内存后,需要修改慢表,同时也需要将表项复制到快表中。
在具有快表机构的请求分页系统中,访问一个逻辑地址时,若发生缺页,则地址变换步骤是:
查快表(未命中)——查慢表(发现未调入内存)——调页(调入的页面对应的表项会直接加入快表)——查快表(命中)——访问目标内存单元。
请求分页存储管理与基本分页存储管理的主要区别:
在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。
若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。
用页面置换算法决定应该换出哪个页面。
页面置换算法
- 最佳置换算法(OPT)
- 先进先出置换算法(FIFO)
- 最近最久未使用置换算法(LRU)
- 时钟置换算法(CLOCK)
- 改进型的时钟置换算法
页面的换入、换出需要磁盘I/O,会有较大的开销,因此好的页面置换算法应该追求更少的缺页率。
最佳置换算法(OPT,Optimal):每次选择淘汰的页面将是以后用不使用,或者在最长时间内不再被访问的页面,这样可以保证最低的缺页率。
【例】
假设系统为某进程分配了三个内存块,并考虑到有以下页面号引用串(会依次访问这些页面):7, 0, 1, 2, 0, 3, 0, 4, 2, 3, 0, 3, 2, 1, 2, 0, 1, 7, 0, 1
。
访问页面7
刚开始进程要访问7号页面。由于刚开始为该进程分配的这三个内存块都是空的,所以我们可以把7号页面放到内存块1中。
访问页面0
同理我们可以把0号页面放到内存块2中。
访问页面1
同理1号页面可以放到内存块3中。
访问页面2
由于此时给进程分配的三个内存块都满了,所以我们必须用页面置换算法选择淘汰其中某一个页面,把它先换出外存。
根据最佳置换算法的规则,我们要选择的是在今后最长时间内不会被使用到的页面,所以其实我们在手动做题的时候,可以看一下它的序列。我们是选择从0、1、7中淘汰一页。那么按照最佳置换的规则,从此处往后寻找看最后一个出现的页号就是要淘汰的页面。
显然,我们应该淘汰7号页面
。然后让2号页面放入到7号页面原先占有的内存块1中。
访问页面0
0号页面已经在内存块2中了,所以不会发生缺页,可以正常访问。
访问页面3
可以发现3号页面并没有在内存当中,所以依然需要用这个置换算法,选择淘汰一个页面,和刚才同理。从2、0、1中选择淘汰一个。
以此类推。
整个过程缺页中断发生了9次,页面置换发生了6次。
注意:缺页时未必发生页面置换。若还有可用的空闲内存块就不用进行页面置换,只是进行调页。
缺页率 = 9 / 20 9/20 9/20 = 45%
最佳置换算法执行的条件,是我们已经知道以后依次访问的序列是什么。
最佳置换算法可以保证最低的缺页率,但实际上,只有在进程执行的过程中才能知道接下来会访问到的是哪个页面。操作系统无法提前预判页面访问序列。因此,最佳置换算法是无法实现的。
先进先出置换算法(FIFO):每次选择淘汰的页面是最早进入内存的页面。
实现方法:把调入内存的页面根据调入的先后顺序排成一个队列,需要换出页面时选择队头页面即可。队列的最大长度取决于系统为进程分配了多少个内存块。
【例】
假设系统为某进程分配了三个内存块,并考虑到有以下页面号引用串:3, 2, 1, 0, 3, 2, 4, 3, 2, 1, 0, 4
。
访问页面3
把3号页面放到内存块1中,并且把3号页面放到刚才我们所说的队列中。
访问页面2
2号页面放到内存块2中,再把2号页面入队、放到队尾。
访问页面1
1号页面放到内存块3中,并且让1号页面放到队尾。
访问页面0
由于此时所有的内存块都占满了,就要选择淘汰3、2、1中的某一个页面。根据系统维持的这个队列可以知道,3号页面进入内存的时间是最早的,所以会选择淘汰3号页面,然后把3号页面占有的内存块1分配给0号页面。同样的,0号页面分配后,也要把它插入到这个队列的队尾。
访问页面3
同理,要把队列队头的淘汰掉,即2号页面。让3号页面放到2号页面以前占有的内存块2中,并且把3号页面放到队列的队尾。
以此类推。
分配三个内存块时,缺页次数:9次。
【例】
假设系统为某进程分配了四个内存块,并考虑到有以下页面号引用串:3, 2, 1, 0, 3, 2, 4, 3, 2, 1, 0, 4
。
分配四个内存块时,缺页次数:10次。
分配三个内存块时,缺页次数:9次。
为什么?乍一想,为进程分配的内存块数越多,它缺页的次数应该越少才对啊。
这个地方的这一现象:Belady异常——当为进程分配的物理块数增大时,缺页次数不减反增的异常现象。
只有FIFO算法会产生Belady异常。另外,FIFO算法虽然实现简单,但是该算法与进程实际运行时的规律不适应,因为先进入的页面也有可能最经常被访问,如果简单粗暴地让先进入的内存就先被淘汰的话,这是不太科学的。因此,算法性能差。
最近最久未使用置换算法(LRU,least recently used):每次淘汰的页面是最近最久未使用的页面。
实现方法:赋予每个页面对应的页表项中,用访问字段记录该页面自上次被访问以来所经历的时间t。当需要淘汰一个页面时,选择现有页面中t值最大的,即最近最久未使用的页面。
【例】
假设系统为某进程分配了四个内存块,并考虑到有以下页面号引用串:1, 8, 1, 7, 8, 2, 7, 2, 1, 8, 3, 8, 2, 1, 3, 1, 7, 1, 3, 7
。
访问页面1、8、1、7、8、2、7、2、1、8:略。
访问页面3
从1、8、7、2中选择一个进行淘汰。
在手动做题时,若需要淘汰页面,可以逆向检查此时在内存中的几个页面号。在逆向扫描过程中,最后一个出现的页号就是要淘汰的页面。
不用四个都看完。在往前找的过程中,已经发现了8、1、2,那么必然说明7号页面是最近最久未使用的。因此选择把7号页面淘汰,把3号页面放到7号页面以前占用的内存块3中。
该算法的实现需要专门的硬件支持,虽然算法性能好,但是实现困难,开销大。
(最近最久未使用算法的性能,是最接近最佳置换算法的。)
之前我们学到的这几种算法当中。最佳置换算法性能最好,但无法实现;先进先出置换算法实现简单,但算法性能差,还会出现Belady异常;最近最久未使用置换算法性能好,是最接近OPT算法性能的,但是实现起来需要专门的硬件支持,算法开销大。
之前这几种算法都无法做到实际效果、性能开销的平衡。
因此,人们就提出了时钟置换算法。时钟置换算法是一种性能和开销较为均衡的算法,又称CLOCK算法,或最近未用算法(NRU,Not Recently Used)。
考试中,我们需要掌握两种时钟置换算法,分别是简单的时钟置换算法、改进型的时钟置换算法。
简单的CLOCK算法实现方法:为每个页面设置一个访问位(访问位为1,表示最近访问过;访问位为0,表示最近没访问过),再将内存中的页面都通过链接指针链接成一个循环队列。
当某页被访问时,其访问位置为1。当需要淘汰一个页面时,只需检查页的访问位。如果是0,就选择该页换出;如果是1,则将它置为0,暂不换出,继续检查下一个页面,若第一轮扫描中所有页面都是1,则将这些页面的访问位依次置为0后,再进行第二轮扫描(第二轮扫描中一定会有访问位为0的页面,因此简单的CLOCK算法选择一个淘汰页面最多会经过两轮扫描)。
(访问过某个页面,自然就要把它的访问为设为1。在选择一个要淘汰的页面,即访问位为0的页面时,就要依次扫描每个页面的访问位直到找到为0的,但需要注意,在扫描的过程中,对于扫描过程中遇到的访问位为1的,要将其访问位设为0)
【例】
假设系统为某进程分配了五个内存块,并考虑到有以下页面号引用串:1, 3, 4, 2, 5, 6, 3, 4, 7
。
前五个页面1、3、4、2、5都可以顺利的放入内存块。
到第六个页面6
的时候,需要讨论淘汰哪个页面。
1、3、4、2、5
会通过链接指针的方式链接成一个循环队列。
于是会从这个循环队列的队首开始扫描,尝试找到一个访问位为0的页面,并且,被扫描过的页面,需要把访问位1改为0。所以,在经过第一轮的扫描之后,所有页面的访问位都由1置为了0。
在进行第二轮扫描的时候,1号页的访问为为0,所以会选择淘汰1号页面。所以6号页会装入到1号页以前占有的内存块当中。并且,6号页的访问位会被置为1。扫描的指针指向下一个页面。
访问页面3
在访问了3号页之后,3号页的访问位会置为1。
访问页面4
在访问了4号页之后,4号页的访问位会置为1。
由于当前7号页不在内存中,所以需要淘汰某一个页面,然后把7号页放入对应内存块中。
同样地,需要从此时扫描到的这个位置开始,依次地扫描,找到第一个访问位为0的页面,并且扫描过的那些页面的访问位要置为0,因此3号页、4号页要由1置为0。
扫描到2号页时,由于2号页本身的访问位就为0,因此选择淘汰2号页,并让7号页面放到2号页面原来的位置,然后把7号页面的访问位置为1。并且同时扫描的指针会再指向下一个页面的位置。
这个扫描的过程有点像时钟指针转圈的过程,这就是为什么这个叫时钟置换算法,是一个很形象的比喻。
同时,经过刚才的分析,我们也可以理解它为什么又叫最近未用算法。我们为每个页面设置一个访问位,访问位为1的时候表示最近被用过、访问位为0的时候表示最近没有被用过。但是我们在淘汰一个页面的时候,是选择那种最近没有被访问过,也就是访问位为0的页面,因此这种算法也可以称作最近未用算法。
简单的时钟置换算法仅考虑到一个页面最近是否被访问过。实际上,如果被淘汰的页面没有被修改过,就不需要执行I/O操作写回万村。只有被淘汰的页面被修改过时,才需要写回外存。
所以,如果我们能优先考虑淘汰那些没有被修改过的页面的话,实际上就可以减少这些I/O操作的次数,就可以让性能得到提升。因此,除了考虑一个页面最近有没有被访问过之外,操作系统还应考虑页面有没有被修改过。在其他条件都相同时,应优先淘汰没有修改过的页面,避免I/O操作。这就是改进型的时钟置换算法的思想。
修改位 = 0,表示页面没有被修改过;修改位 = 1,表示页面被修改过。
为方便讨论,用==(访问位,修改位)==的形式表示各页面状态。如(1,1)表示一个页面近期被访问过,且被修改过。
算法规则:将所有可能被置换的页面排成一个循环队列。(和普通的时钟置换算法一样)
第一轮:从当前位置开始扫描到第一个(0,0)的帧用于替换。本轮扫描不修改任何标志位。
第二轮:若第一轮扫描失败,则重新扫描,查找第一个(0,1)的帧用于替换。本轮将所有扫描过的帧访问位设为0。
第三轮:若第二轮扫描失败,则重新扫描,查找第一个(0,0)的帧用于替换。本轮扫描不修改任何标志位。
第四轮:若第三轮扫描失败,则重新扫描,查找第一个(0,1)的帧用于替换。
由于第二轮已将所有帧的访问位设为0,因此经过第三轮、第四轮扫描一定会有一个帧被选中,因此改进型CLOCK置换算法选择一个淘汰页面最多会进行四轮扫描。
【例】
假设系统为某进程分配了五个内存块,且当内存块被占满之后,各个页面会用链接的方式连接成一个循环的队列。此时若要淘汰一个页面的话,需要从这个队列的队头开始依次地扫描。
【情况1】
根据算法规则,在第一轮扫描之中,并不修改任何的标志位,需要尝试找到(访问位,修改位)=(0,0)的页面。
第一轮就找到了并淘汰。
【情况2】
【情况3】
【情况4】
其实,第一轮,优先选择淘汰(0,0)这样的页面,就意味着,第一优先级,是最近没访问,且没修改的页面。
根据第二轮可知,第二优先级,是最近没访问,但修改过的页面。如果经过了第二轮还没有找到的话,其实就意味着在执行第二轮扫描之前,所有的访问位都是1。
同时根据第三轮,可知,第三优先级是最近访问过,但没修改的页面。也就是,访问位以前是1,修改位以前是0这样的页面。
第四轮来看,第四优先级,是最近访问过,且修改过的页面。
页面分配策略
- 驻留集
- 页面分配、置换策略
- 固定分配局部置换
- 可变分配全局置换
- 可变分配局部置换
- 调入页面的时机
- 从何处调页
- 抖动(颠簸)现象
- 工作集
驻留集:指请求分页存储管理中给进程分配的物理块的集合。
在采用了虚拟存储技术的系统中,为了从逻辑上提升内存并且提高内存的利用率,驻留集的大小一般小于进程的总大小。
考虑一个极端的情况,若某进程共有100个页面,如果该进程的驻留集和进程的大小一样也为100,则进程可以全部放入内存,且运行期间不会发生任何一次缺页。
而如果驻留集大小太小了,假设为1,那么进程在运行期间必定会极频繁地缺页。
若驻留集太小,会导致缺页频繁,系统要花大量时间来处理缺页,实际用于进程推进的时间很少;
驻留集太大,又会导致多道程序并发度下降,资源利用率降低。所以应该选择一个合适的驻留集大小。(为什么资源利用率降低,是因为,比如说CPU和I/O设备,它们其实是可以并行工作的,而如果驻留集太大,则这两种资源并行工作的几率就会下降,所以资源利用率就会有所降低)
所以系统应该为进程选择一个合适的驻留集大小。针对于驻留集的大小是否可变,人们提出了固定分配和可变分配这两种分配策略。
固定分配:操作系统为每个进程分配一组固定数目的物理块,在进程运行期间不再改变。即,驻留集大小不变。
可变分配:先为每个进程分配一定数目的物理块,在进程运行期间,可根据情况做适当的增加或减少。即,驻留集大小可变。
另外,当页面置换的时候,置换的范围是什么,针对这个问题,人们又提出了局部置换和全局置换。
局部置换:发生缺页时只能选进程自己的物理块进行置换。
全局置换:可以将操作系统保留的空闲物理块分配给缺页进程,也可以将别的进程持有的物理块置换到外存,再分配给缺页进程。
那么,把这两种分配策略和这两种置换策略,两两结合,可以得到三种分配-置换策略。
分别是固定分配局部置换、可变分配局部置换、可变分配全局置换。
并不存在固定分配全局置换这种策略,因为如果使用的是全局置换的话,就意味着一个进程所拥有的物理块是必然会改变的,而固定分配又规定了进程的驻留集大小不变,即所拥有的物理块数是不变的。所以固定分配全局置换这种策略是不存在的。
固定分配局部置换:系统为每个进程分配一定数量的物理块,在整个运行期间都不再改变。若进程在运行中发生缺页,则只能从该进程在内存中的页面中选出一页换出,然后再调入需要的页面。
这种策略的缺点是:很难在刚开始就确定应为每个进程分配多少个物理块才算合理。(采用这种策略的系统可以根据进程大小、优先级、或是根据程序员给出的参数来确定为一个进程分配的内存块数)
可变分配全局置换:刚开始会为每个进程分配一定数量的物理块。操作系统会保持一个空闲物理块队列。当某进程发生缺页时,从空闲物理块中取出一块分配给该进程。若已无空闲物理块,则可选择一个未锁定的页面换出外存,再将该物理块分配给缺页的进程。
什么叫锁定/未锁定的页面?
其实系统会选择一些重要的页面进行锁定,这些页面中的内容不能置换出外存,需要常驻内存。(如,重要的内核数据可以设为“锁定”)
采用这种策略时,只要某进程发生缺页,都将获得新的物理块,仅当空闲物理块用完时,系统才选择一个未锁定的页面调出。被选择调出的页可能是系统中任何一个进程中的页,因此这个被选中的进程拥有的物理块会减少,缺页率会增加。(其实能看出,某进程发生缺页,就给它分配一个新的物理块,这样也是不太合理的)
可变分配局部置换:刚开始会为每个进程分配一定数量的物理块。当某进程发生缺页时,只允许从该进程自己的物理块中选出一个进行换出外存。如果操作系统发现这个进程在运行的过程中发生频繁的缺页,那么系统就会为该进程多分配几个物理块,直至该进程缺页率趋于适当程度;反之,如果进程在运行中缺页率特别低,则可适当减少分配给该进程的物理块(因为系统中是多道程序并发,要兼顾整个系统)。
可变分配==全局==置换:只要缺页就给分配新物理块。
可变分配==局部==置换:要根据发生缺页的频率来动态地增加或减少进程的物理块。
1、预调页策略:根据局部性原理(此处特别是空间局部性原理,即:如果当前访问了某个内存单元,在之后很有可能会接着访问与其相邻的那些内存单元),一次调入若干个相邻的页面可能比一次调入一个页面更高效(一次调多个页面,总共需要磁盘I/O的次数就会减少)。但是,如果提前调入的页面中大多数都没被访问过,则这个行为导致的结果又是很低效的。因此我们可以用某种方法,预测不久之后可能访问到的页面,将它们预先调入内存,但目前预测的成功率只有50%左右。所以在实际运用当中,预调页策略主要用于进程的首次调入,由程序员指出应该先调入哪些部分(比如我可以告诉系统:把main函数相关的部分先调入内存)。
所以预调页策略,是在进程运行前就已经调入的一种策略。
2、请求调页策略:(这也是咱们之前一直在学习的请求调页方式)进程在运行期间发现缺页时才将所缺页面调入内存。由这种策略调入的页面是一定会被访问到的。但由于每次只能调入一页,而每次调页都要磁盘I/O操作,因此I/O开销较大。
所以这种策略,是在进程运行期间才进行页面的调入。
那么在实际运用当中,预调页和请求调页策略都会结合着来使用,预调页用于进程运行前的调入、请求调页策略是在进程运行期间使用的。
以上就是调页时机的问题。
在之前我们也有所介绍过。磁盘有两种区域:对换区、文件区。其中,对换区读/写速度更快,采用连续分配方式。文件区的读写速度是更慢的,采用的是离散分配方式。一般来说,文件区的大小要比对换区的大小更大。平时我们的程序在没有运行的时候,相关的数据都是存放在文件区的。
1、系统拥有足够的对换区空间:
由于对换区的读写速度更快,所以系统如果拥有足够的对换区空间的话,那么页面的调入调出,都是在内存与对换区之间进行的。
所以,系统中如果有足够的对换区空间,刚开始,会把进程相关的一系列数据从文件区先复制到对换区,之后把这些需要的页面从对换区调入内存。相应的,如果内存空间不够的话,可以把内存中的某些页面调出到对换区当中。页面的调入调出,都是内存和对换区(更为高速的区域)进行的。
2、系统缺少足够对换区空间:
凡是不会被修改的数据,都会从文件区直接调入到内存。由于这些数据是不会被修改的,所以这些数据被调出后,是不必重新被写回磁盘的,下次需要时再从文件区调入即可。
而如果某些页面被修改过的话,把它调出的时候就需要写回到对换区,而不是写回到文件区(因为文件区的读写速度更慢);相应的,如果之后还需要使用到这些被修改的页面的话,就是从对换区再换入内存。
3、UNIX方式:
运行之前进程有关的数据全部放在文件区,故未使用过的页面,都可从文件区调入。若被使用过的页面需要换出,则写回对换区,下次需要时从对换区调入。
刚刚换出的页面马上又要换入内存,刚刚换入的页面马上又要换出外存,这种频繁的页面调度行为称为抖动,或颠簸。产生抖动的主要原因是进程频繁访问的页面数目高于可用的物理块数(分配给进程的物理块不够)。
如果发生了抖动现象,系统会花费大量的时间用于处理进程页面的换入换出,而实际用于进程运行的时间比例就会减少,所以我们要尽量避免抖动现象的发生。
那么,为了防止抖动的发生,就要为进程分配足够的物理块。但如果物理块分配的太多的话,又会降低系统整体的并发度,降低资源利用率。
所以,为了研究应该为每个进程分配多少个物理块,Denning提出了进程“工作集”的概念。
驻留集:指请求分页存储管理中给进程分配的内存块的集合。
工作集:指在某段时间间隔里,进程实际访问页面的集合。
操作系统会根据“窗口尺寸”来算出工作集。
【例】
某进程的页面访问序列如下,窗口尺寸为4,各时刻的工作集为?
24, 15, 18, 23, 24, 17, 18, 24, 18, 17, 17, 15
所以在这个时刻,这个进程的工作集应该是:{24,15,18,23}
{18,24,17}
这样三个页面。所以从这个地方会发现,工作集的大小可能会小于窗口尺寸。在实际应用中,窗口尺寸会设置的更大一些比如说10、50、100,对于一些局部性很好的进程来说,工作集的大小是要比窗口尺寸的大小更小的。而操作系统可以统计进程的工作集大小,再根据工作集大小给进程分配若干内存块。如:窗口尺寸为5,经过一段时间的监测发现某进程的工作集最大为3,那么说明该进程有很好的局部性,可以给这个进程分配3个以上的内存块即可满足进程的运行需要。即,可以根据工作集的大小来确定驻留集的大小是多少。
一般来说,驻留集大小不能小于工作集大小,否则进程运行过程中将频繁缺页。
拓展:在某些系统中,也会根据工作集的概念,来设计一种页面置换算法。基于局部性原理可知,进程在一段时间内访问的页面与不久之后会访问的页面是有相关性的,因此,可以根据进程近期访问的页面集合(工作集)来设计一种页面置换算法——选择一个不在工作集中的页面进行淘汰。