内核是如何管理内存的?

文章来源:http://blog.csdn.net/drshenlei/archive/2009/07/15/4350928.aspx

内核是如何管理内存的?

 

原文标题:How The Kernel Manages Your Memory

原文地址:http://duartes.org/gustavo/blog/

 

[注:本人水平有限,只好挑一些国外高手的精彩文章翻译一下。一来自己复习,二来与大家分享。]

 

    在仔细审视了进程的虚拟地址布局之后,让我们把目光转向内核以及其管理用户内存的机制。再次从gonzo图示开始:

  

    Linux进程在内核中是由task_struct的实例来表示的,即进程描述符。task_struct的mm字段指向内存描述符(memory descriptor),即mm_struct,一个程序的内存的执行期摘要。它存储了上图所示的内存段的起止位置,进程所使用的物理内存页的数量(rss表示Resident Set Size),虚拟内存空间的使用量,以及其他信息。我们还可以在内存描述符中找到用于管理程序内存的两个重要结构:虚拟内存区域集合(the set of virtual memory areas)及页表(page table)。Gonzo的内存区域如下图所示:


    每一个虚拟内存区域(简称VMA)是一个连续的虚拟地址范围;这些区域不会交叠。一个vm_area_struct的实例完备的描述了一个内存区域,包括它的起止地址,决定访问权限和行为的标志位,还有vm_file字段,用于指出被映射的文件(如果有的话)。一个VMA如果没有映射到文件,则是匿名的(anonymous)。除memory mapping 段以外,上图中的每一个内存段(如:堆,栈)都对应于一个单独的VMA。这并不是强制要求,但在x86机器上经常如此。VMA并不关心它在哪一个段。

 

    一个程序的VMA同时以两种形式存储在它的内存描述符中:一个是按起始虚拟地址排列的链表,保存在mmap字段;另一个是红黑树,根节点保存在mm_rb字段。红黑树使得内核可以快速的查找出给定虚拟地址所属的内存区域。当你读取文件/proc/pid_of_process/maps时,内核只须简单的遍历指定进程的VMA链表,并打印出每一项来即可。

 

    在Windows中,EPROCESS块可以粗略的看成是task_struct和mm_struct的组合。VMA在Windows中的对应物时虚拟地址描述符(Virtual Address Descriptor),或简称VAD;它们保存在平衡树中(AVL tree)。你知道Windows和Linux最有趣的地方是什么吗?就是这些细小的不同点。

 

        4GB虚拟地址空间被分割为许多页(page)。x86处理器在32位模式下所支持的页面大小为4KB,2MB和4MB。Linux和Windows都使用4KB大小的页面来映射用户部分的虚拟地址空间。第0-4095字节在第0页,第4096-8191字节在第1页,以此类推。VMA的大小必须是页面大小的整数倍。下图是以4KB分页的3GB用户空间:


    处理器会依照页表(page table)来将虚拟地址转换到物理内存地址。每个进程都有属于自己的一套页表;一旦进程发生了切换,用户空间的页表也会随之切换。Linux在内存描述符的pgd字段保存了一个指向进程页表的指针。每一个虚拟内存页在页表中都有一个与之对应的页表项(page table entry),简称PTE。它在普通的x86分页机制下,是一个简单的4字节记录,如下图所示:


        Linux有一些函数可以用于读取或设置PTE中的每一个标志。P位告诉处理器虚拟页面是否存在于(present)物理内存中。如果是0,访问这个页将触发页故障(page fault)。记住,当这个位是0时,内核可以根据喜好,随意的使用其余的字段。R/W标志表示读/写;如果是0,页面就是只读的。U/S标志表示用户/管理员;如果是0,则这个页面只能被内核访问。这些标志用于实现只读内存和保护内核空间。

 

        D位和A位表示数据脏(dirty)和访问过(accessed)。脏表示页面被执行过写操作,访问过表示页面被读或被写过。这两个标志都是粘滞的:处理器只会将它们置位,之后必须由内核来清除。最后,PTE还保存了对应该页的起始物理内存地址,对齐于4KB边界。PTE中的其他字段我们改日再谈,比如物理地址扩展(Physical Address Extension)。

 

    虚拟页面是内存保护的最小单元,因为页内的所有字节都共享U/S和R/W标志。然而,同样的物理内存可以被映射到不同的页面,甚至可以拥有不同的保护标志。值得注意的是,在PTE中没有对执行许可(execute permission)的设定。这就是为什么经典的x86分页可以执行位于stack上的代码,从而为黑客利用堆栈溢出提供了便利(使用return-to-libc和其他技术,甚至可以利用不可执行的堆栈)。PTE缺少不可执行(no-execute)标志引出了一个影响更广泛的事实:VMA中的各种许可标志可能会也可能不会被明确的转换为硬件保护。对此,内核可以尽力而为,但始终受到架构的限制。

 

    虚拟内存并不存储任何东西,它只是将程序地址空间映射到底层的物理内存上,后者被处理器视为一整块来访问,称作物理地址空间(physical address space)。对物理内存的操作还与总线有点联系,好在我们可以暂且忽略这些并假设物理地址范围以字节为单位递增,从0到最大可用内存数。这个物理地址空间被内核分割为一个个页帧(page frame)。处理器并不知道也不关心这些帧,然而它们对内核至关重要,因为页帧是物理内存管理的最小单元。Linux和Windows在32位模式下,都使用4KB大小的页帧;以一个拥有2GB RAM的机器为例:

 

    在Linux中,每一个页帧都由一个描述符和一些标志所跟踪。这些描述符合在一起,记录了计算机内的全部物理内存;可以随时知道每一个页帧的准确状态。物理内存是用buddy memory allocation技术来管理的,因此如果一个页帧可被buddy 系统分配,则它就是可用的(free)。一个被分配了的页帧可能是匿名的(anonymous),保存着程序数据;也可能是页缓冲的(page cache),保存着一个文件或块设备的数据。还有其他一些古怪的页帧使用形式,但现在先不必考虑它们。Windows使用一个类似的页帧编号(Page Frame Number简称PFN)数据库来跟踪物理内存。

 

    让我们把虚拟地址区域,页表项,页帧放到一起,看看它们到底是怎么工作的。下图是一个用户堆的例子:

 

    蓝色矩形表示VMA范围内的页,箭头表示页表项将页映射到页帧上。一些虚拟页并没有箭头;这意味着它们对应的PTE的存在位(Present flag)为0。形成这种情况的原因可能是这些页还没有被访问过,或者它们的内容被系统换出了(swap out)。无论那种情况,对这些页的访问都会导致页故障(page fault),即使它们处在VMA之内。VMA和页表的不一致看起来令人奇怪,但实际经常如此。

 

    一个VMA就像是你的程序和内核之间的契约。你请求去做一些事情(如:内存分配,文件映射等),内核说“行”,并创建或更新适当的VMA。但它并非立刻就去完成请求,而是一直等到出现了页故障才会真正去做。内核就是一个懒惰,骗人的败类;这是虚拟内存管理的基本原则。它对大多数情况都适用,有些比较熟悉,有些令人惊讶,但这个规则就是这样:VMA记录了双方商定做什么,而PTE反映出懒惰的内核实际做了什么。这两个数据结构共同管理程序的内存;都扮演着解决页故障,释放内存,换出内存(swapping memory out)等等角色。让我们看一个简单的内存分配的例子:


    当程序通过brk()系统调用请求更多的内存时,内核只是简单的更新堆的VMA,然后说搞好啦。其实此时并没有页帧被分配,新的页也并没有出现于物理内存中。一旦程序试图访问这些页,处理器就会报告页故障,并调用do_page_fault()。它会通过调用find_vma()去搜索哪一个VMA含盖了产生故障的虚拟地址。如果找到了,还会根据VMA上的访问许可来比对检查访问请求(读或写)。如果没有合适的VMA,也就是说内存访问请求没有与之对应的合同,进程就会被处以段错误(Segmentation Fault)的罚单。

 

    当一个VMA被找到后,内核必须处理这个故障,方式是察看PTE的内容以及VMA的类型。在我们的例子中,PTE显示了该页并不存在。事实上,我们的PTE是完全空白的(全为0),在Linux中意味着虚拟页还没有被映射。既然这是一个匿名的VMA,我们面对的就是一个纯粹的RAM事务,必须由do_anonymous_page()处理,它会分配一个页帧并生成一个PTE,将出故障的虚拟页映射到那个刚刚分配的页帧上。

 

    事情还可能有些不同。被换出的页所对应的PTE,例如,它的Present标志是0但并不是空白的。相反,它记录了页面内容在交换系统中的位置,这些内容必须从磁盘读取出来并通过do_swap_page()加载到一个页帧当中,这就是所谓的major fault。

 

    至此我们走完了“内核的用户内存管理”之旅的前半程。在下一篇文章中,我们将把文件的概念也混进来,从而建立一个内存基础知识的完成画面,并了解其对系统性能的影响。

 

本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/drshenlei/archive/2009/07/15/4350928.aspx

 

物理内存页框的管理

文章来源:http://www.tek-life.org/2010/03/30/%E7%89%A9%E7%90%86%E5%86%85%E5%AD%98%E9%A1%B5%E6%A1%86%E7%9A%84%E7%AE%A1%E7%90%86/

对于内存管理来讲,包括两个方面,一个是物理内存的管理,另一个是线性地址空间的管理。物理内存的管理是从“供应”的角度来看,我现在仓库里面有多少资源可以供分配,而线性地址空间的管理,则是从“需求”的角度去考虑,我需要多少的线性地址空间来满足进程的运行。把供应和需求连接起来的纽带就是缺页调用,以及页面的分配了。

下面从“供应”的角度谈谈,Linux系统如何来管理有限的物理内存资源的。

以I386为例,我们都知道,系统启动的时候,Bios检索内存,检查一下本机的物理内存有多大MB,对于CPU里面的MMU来讲,在寻址的时候,以4KB的页面来进行页面寻址的,既是每一个页面的大小为4KB,当然,如果是2MB的话,每一个页面大小就是2MB了,同样道理,某些I386CPU也支持4MB和1GB大小的页面,我们现在假定以4KB为例。以4KB为例,操作系统把全部的物理内存以4KB来分割,进行管理,在给进程分配的时候,最小的单位是1页,而进行SWAP和回收的时候 ,也是以最小的页为单位来进行处理的。因此,就需要有一个数据结构来描述一个物理页面的状态了:

1、  这个页面分配了么?也就是这个页面在使用中么?如果在使用,那么被几个进程使用了。

2、  这个页面被几个页表项映射了?

这个也挺重要,因为,如果,这个页要是换出的话,得告诉自己的“顶头上司”映射自己的页表项。让他们有所改变才行。

3、  另外,如果页面被使用了,那么是存放的某些文件的内容,还是用于进程自己使用的?

如果是某些文件的内容,那么标识一下,以后的其他进程使用的话,就直接在内存中读,而不需要舍近求远了。—-这就是传说中的高速缓冲区

4、  这个页面内容如果存放的是某个文件的内容,那么页面存放的数据相对于文件头来讲,具体是那一部分的数据?

这就是说,如果我要写回,我写到文件的什么位置捏?!

5、  这个页面现在是被使用的么,还是暂时没有被使用?

如果没有被使用,就可以分配给其他进程了,如果被使用了,那么就不能给别的进程映射了。

由了这里的分析,那么我们就看一下Linux系统是怎样来描述一个物理页的状态的吧:

view source
print ?
01 223 struct page {
02 224     unsigned long flags;        /* Atomic flags, some possibly
03 225                      * updated asynchronously */
04   
05 226     atomic_t _count;        /* Usage count, see below. */
06 227     atomic_t _mapcount;     /* Count of ptes mapped in mms,有几个pet映射此页面
07 228                      * to show when page is mapped
08 229                      * & limit reverse map searches.
09 230                      */
10 231     union {
11 232         struct {
12   
13 233         unsigned long private;      /* Mapping-private opaque data:
14   
15 234                          * usually used for buffer_heads
16   
17 235                          * if PagePrivate set; used for
18   
19 236                          * swp_entry_t if PageSwapCache;
20   
21 237                          * indicates order in the buddy
22   
23 238                          * system if PG_buddy is set.
24   
25 239                          */
26   
27 240         struct address_space *mapping;  /* If low bit clear, points to
28   
29 241                          * inode address_space, or NULL.
30   
31 242                          * If page mapped as anonymous
32   
33 243                          * memory, low bit is set, and
34   
35 244                          * it points to anon_vma object:
36   
37 245                          * see PAGE_MAPPING_ANON below.
38   
39 246                          */
40   
41 247         };
42   
43 248 #if NR_CPUS >= CONFIG_SPLIT_PTLOCK_CPUS
44   
45 249         spinlock_t ptl;
46   
47 250 #endif
48   
49 251     };
50   
51 252     pgoff_t index;          /* Our offset within mapping. */
52   
53 253     struct list_head lru;       /* Pageout list, eg. active_list
54   
55 254                      * protected by zone->lru_lock !
56   
57 255                      */
58   
59 256     /*
60   
61 257      * On machines where all RAM is mapped into kernel address space,
62   
63 258      * we can simply calculate the virtual address. On machines with
64   
65 259      * highmem some memory is mapped into kernel virtual memory
66   
67 260      * dynamically, so we need a place to store that address.
68   
69 261      * Note that this field could be 16 bits on x86 ... ;) 
70   
71 262      *
72   
73 263      * Architectures with slow multiplication can define
74   
75 264      * WANT_PAGE_VIRTUAL in asm/page.h
76   
77 265      */
78   
79 266 #if defined(WANT_PAGE_VIRTUAL)
80   
81 267     void *virtual;          /* Kernel virtual address (NULL if
82   
83 268                        not kmapped, ie. highmem) */
84   
85 269 #endif /* WANT_PAGE_VIRTUAL */
86   
87 270 };

先看第一个字段:flags

这个字段就是说明了page对应页的属性:

内容是内核代码段么?

还是被保留的不能换出的,还是被锁定,不能被换出;还是刚刚被访问过的,如果刚刚被访问过那就是比较年轻,距离换出还有相当长的时间;还是将要被回收的;该页的内容是不是”脏”的。那么这些选项都对应一个标志位,一共有20个标志位。在include/linux/page-flags.h里面有定义。

第二个字段:_count.

这个字段,说明对应页被用到的次数。

第三个字段:map_count

这个字段是,该页在几个页表项中存在,这个字段和第二个字段_count很相似,但一般情况下,对页进行操作的时候,先把该页描述符的_count+1,然后操作完后 ,再进行-1。而map_count是说明这个页在页表项中映射的次数。有可能的情况是映射了到了好几个页表项,但_count的值为1。这个map_count字段最大的作用就是在页面被换出的时候,我要查找一下,有几个页表项映射的是这个页,然后通过反向查找,把所有对应的页表项的值该为swap里面的索引。

第四个字段是一个union结构体。mapping指向的是映射文件的inode的address_spaces字段。可以根据它和page里面的index字段,去查找是否在页高速缓存中,如果在也页高速缓存中没有找到 ,那么,就看一下是否被交换到了swap去里面,利用private里面的值去找到swap里面的数据内容,然后交换到页高速缓冲区中。

第五个字段,就是index。它的值代表了,页框的内容如果是映射文件的话,相对于文件开始的地方偏移量。

第六个字段,是lru。这是链接的活动、非活动链表。根据第一个字段flag属性,确定链接的是活动链表,还是非活动链表。

第七个字段,还不清楚,但根据注释,指向的是该页描述符对应页框的线性地址。我想,这个线性地址在对应内核线性地址空间的永久影射区的空间地址吧。

好了,以上就是对于页框的管理。似乎到这里就可以管理内存的每一个页框了。

我们现在假设一种情况,内核在给进程分配页框的时候,随机分配,假如把低16MB的地址,除去BIOS等占用的保留页框之外,都已经分配结束了。而在高于16MB的地方大部分还没有分配。这个时候,有一个用户进程请求了一个DMA传输,而这个DMA控制器是基于ISA总线的,我们清楚,对于ISA总线上的DMA控制器,是不经过MMU的,因此,它只认识总线地址而且是低于16M(0x 10,00000)的线性地址才认识。但这个时候,0~16MB的物理地址区间内的页框都已经被用完了,而高于16MB的地方,还有很多内存可用,但是这个时候,是用不了的。所以,我们在进行页框管理的时候 ,还要在页框之上再加一个管理层,就是“区”的概念了。

一般情况下,内存分为3个区:

ZONE_DMA、ZONE_NORMAL、ZONE_HIGHMEM。

除了ZONE_DMA必须之外,为什么还要再分一个ZONE_HIGHMEM区呢?因为,对于正常的区,内核区间的线性地址进行映射的时候是物理地址加上一个3G偏移量,就得到线性地址了,我们知道,内核直接映射的区域是0~896MB,对于大于1G的内存,内核是不能通过物理地址加上3G的偏移量,直接映射的,因此在高于896MB的物理内存在被映射的时候,是通过其他方法来映射的,因此要单独拿出来作为一个分区。

好了,现在两个特殊的分区,都划出来了,中间剩下的就作为一个区了—Normal区。

我们来看一下ZONE区的结构:

view source
print ?
01 139 struct zone {
02   
03 140     /* Fields commonly accessed by the page allocator */
04   
05 141     unsigned long       free_pages;//有多少空闲页
06   
07 142     unsigned long       pages_min, pages_low, pages_high;//阈值,在分配物理页的时候对不同的阈值,正常,或者减慢页的分配速度
08   
09 152     unsigned long       lowmem_reserve[MAX_NR_ZONES];//每一个区需要保留的内存,应急用
10   
11 154 #ifdef CONFIG_NUMA
12   
13 155     /*
14   
15 156      * zone reclaim becomes active if more unmapped pages exist.
16   
17 157      */
18   
19 158     unsigned long       min_unmapped_ratio;//换出的页太多了,就要启动reclaim
20   
21 159     unsigned long       min_slab_pages;//用于slab页太少了,因此也要reclaim
22   
23 160     struct per_cpu_pageset  *pageset[NR_CPUS];//每个CPU需要维护的冷热页表,在高速缓存中的页为热页
24   
25 161 #else
26   
27 162     struct per_cpu_pageset  pageset[NR_CPUS];
28   
29 163 #endif
30   
31 164     /*
32   
33 165      * free areas of different sizes
34   
35 166      */
36   
37 167     spinlock_t      lock;
38   
39 168 #ifdef CONFIG_MEMORY_HOTPLUG
40   
41 169     /* see spanned/present_pages for more description */
42   
43 170     seqlock_t       span_seqlock;
44   
45 171 #endif
46   
47 172     struct free_area    free_area[MAX_ORDER];
48   
49 177     /* Fields commonly accessed by the page reclaim scanner */
50   
51 178     spinlock_t      lru_lock;
52   
53 179     struct list_head    active_list;
54   
55 180     struct list_head    inactive_list;
56   
57 181     unsigned long       nr_scan_active;//回收内存时需要扫描的活动页数
58   
59 182     unsigned long       nr_scan_inactive;//回收内存时需要扫描的非活动页数
60   
61 183     unsigned long       nr_active;//活动链表上的页数
62   
63 184     unsigned long       nr_inactive;//非活动链表上的页数
64   
65 185     unsigned long       pages_scanned;     /* since last reclaim */
66   
67 186     int         all_unreclaimable; /* All pages pinned *///当填满不可回收页时置位
68   
69 187
70   
71 188     /* A count of how many reclaimers are scanning this zone */
72   
73 189     atomic_t        reclaim_in_progress;//有几个回收进程在扫描该区
74   
75 190
76   
77 191     /* Zone statistics */
78   
79 192     atomic_long_t       vm_stat[NR_VM_ZONE_STAT_ITEMS];//存放Zone属性的统计信息
80   
81 207     int prev_priority;//回收内存时,先处理的优先级范围0~12
82   
83 244     struct pglist_data  *zone_pgdat;//隶属于哪个节点
84   
85 245     /* zone_start_pfn == zone_start_paddr >> PAGE_SHIFT */
86   
87 246     unsigned long       zone_start_pfn;//zone区从哪一个页框号开始
88   
89 258     unsigned long       spanned_pages;  /* total size, including holes */
90   
91 259     unsigned long       present_pages;  /* amount of memory (excluding holes) */
92   
93 264     char            *name;
94   
95 265 } ____cacheline_internodealigned_in_smp;

区作为物理页框的上级管理者,它首先需要知道,我所管辖的区里面所管辖的页框在物理内存的那个范围之内,总共有多少个页框,有多少空闲的内存可以分配,有哪些页框是永远也不能分配的。

另外,作为管理者,我有必要在空闲内存少的时候,启动回收方案,将暂时不用的页进行回收,或者交换,以腾出页面供将要进行的进程进行使用。那么为了进行有效的回收,我就必须知道什么时候来进行回收,哪些页暂时没有用,哪些页正在使用,因此就需要用两个对应的链表,把对应的页给穿起来(穿起来要依靠page结构里面的lru—有一个前指针,有一个后指针)。另外,为了管理的方便,需要知道有多少非活动页,有多少活动页。另外为了提高性能,Linux系统为管理区中单独分配一个页面的情况作了特殊处理。如果分配一个页面的时候,将用到的数据与前面的数据是相关的,可能已经在高速缓存中存在了,那么,就给它分配一个特殊的页面,也就是“热”页,操作系统为每一个CPU都维护了一个热页面的集合,通过链表,将热页面给管理起来,相对,如果我用到的数据,和之前的数据是无关的,那么我就分配一个一般的一面,相对与“热”页面,就是冷页面了。

根据上面的分析,基本上Linux都安排了相应的字段。

随着体系结构的发展,出现了NUMA的体系结构,在NUMA的体系结构中,存储器是分布式的。每一个节点都有一个本地的存储器,既可以访问本地的存储器,又可以访问系统其他节点的存储器,但访问其他节点和本地节点的时间是不一样的。在NUMA体系结构中,我们再假象一个场景,在一个节点中,我的物理内存用的差不多了,但其他节点上的存储器还有很多闲置的内存存在,因此,我就想从其他节点上分一些页框归我所用。那么我怎么定位其他节点上的页框地址呢?当然具体一点是先定位到节点,然后再定义到节点下面的存储区,然后再定义到区里面的页框。

很显然,在NUMA的体系结构中,在管理物理内存的时候,除了页描述符和管理区之外,还需要有一个新的管理机构就是节点。

在Linux中,节点的数据结构是pglist_data。

view source
print ?
01 303 typedef struct pglist_data {
02   
03 304     struct zone  node_zones[MAX_NR_ZONES];//节点中管理区描述符的数组
04   
05 305     struct zonelist  node_zonelists[GFP_ZONETYPES];//页分配器使用的管理区数组,代表不同的分配策略
06   
07 306      int nr_zones;//
08   
09 307 #ifdef CONFIG_FLAT_NODE_MEM_MAP
10   
11 308      struct page *node_mem_map;//page链表
12   
13 309 #endif
14   
15 310      struct bootmem_data *bdata;
16   
17 311 #ifdef CONFIG_MEMORY_HOTPLUG
18   
19 319      spinlock_t node_size_lock;
20   
21 320 #endif
22   
23 321     unsigned  long node_start_pfn;//节点中第一个页框的下标
24   
25 322     unsigned long  node_present_pages; /* total number of physical pages */
26   
27 323      unsigned long node_spanned_pages; /* total size of physical page
28   
29 324                           range, including holes */
30   
31 325     int node_id;//node编号
32   
33 326      wait_queue_head_t kswapd_wait;//在运行进程时,kswapd在运行,那么将进程阻塞,放入等待队列中
34   
35 327      struct task_struct *kswapd;//指向kswapd内核线程
36   
37 328     int  kswapd_max_order;//允许创建空闲块的最大值,取对数
38   
39 329 } pg_data_t;

作为物理内存最高的管理机构,Pglist_data所做的事情主要是大局的。比如,我下面有几个管理区,如果给进程分配内存的时候,我没有那么多的内存,我首先该向哪一个管理区去借。另外,对于我本身的存储器而言,页描述符在物理内存的什么位置放着,第一个页框的序号是什么(一般都是0),总共有多少个页面,除去不能分配的,还有多少的页面。在进行页框分配的时候,我允许一次最多能分配多少的连续页框。另外,如果剩余的内存比较少,我应该调用哪一个进程去回收页框,回收页框完毕后,需要唤醒当初被阻塞的进程。

上面的分析,基本上也就是pglist_data结构下面的字段了。

你可能感兴趣的:(内核是如何管理内存的?)