每一个进程都有一个指针指向它自己的PGD(Page Global Directory),PGD是一个物理页框。该页框包含有一组类型为pgd_t的结构。该类型有具体的架构代码中指定。例如在x86下,其定义如下:
typedef struct { unsigned long long pgd; } pgd_t;
typedef struct { unsigned long pte_low, pte_high; } pte_t;
typedef struct { unsigned long long pmd; } pmd_t;
每种架构加载page tables的方式有所不同。例如x86架构下,每个进程的page tables是通过复制mm_struct->pgd到cr3寄存器进行加载的。
PGD中的每一个active项都对应着一个物理页框,该页框包含一组PMD(Page Middle Directory)其类型为pmd_t。
PMD对应的又是一个物理页框,PMD页框中时一组PTE(Page Table Entries)其类型为pte_t,
PTE对应一个物理页框用于存放最终的数据。
一条线性地址可能被切割为多个部分形成多级页表和页内偏移。为了帮助线性地址的切割,为每一级也定义了一个宏:
/* PAGE_SHIFT determines the page size */
#define PAGE_SHIFT 12
#define PAGE_SIZE (1UL << PAGE_SHIFT)
#define PAGE_MASK (~(PAGE_SIZE-1))
如上面所描述,struct pte_t,pmd_t,pgd_t分别描述PTE,PMD,PGD。尽管它们通常是一个非负整数,但是它们仍然被定义成结构体有以下两种原因:
从下面的定义来看,分别有两种定义:
#ifdef CONFIG_X86_PAE
extern unsigned long long __supported_pte_mask;
extern int nx_enabled;
typedef struct { unsigned long pte_low, pte_high; } pte_t;
typedef struct { unsigned long long pmd; } pmd_t;
typedef struct { unsigned long long pgd; } pgd_t;
typedef struct { unsigned long long pgprot; } pgprot_t;
#define pte_val(x) ((x).pte_low | ((unsigned long long)(x).pte_high << 32))
#define HPAGE_SHIFT 21
#else
#define nx_enabled 0
typedef struct { unsigned long pte_low; } pte_t;
typedef struct { unsigned long pmd; } pmd_t;
typedef struct { unsigned long pgd; } pgd_t;
typedef struct { unsigned long pgprot; } pgprot_t;
#define boot_pte_t pte_t /* or would you rather have a typedef */
#define pte_val(x) ((x).pte_low)
#define HPAGE_SHIFT 22
#endif
资料直通车:最新Linux内核源码资料文档+视频资料
内核学习地址:Linux内核源码/内存调优/文件系统/进程管理/设备驱动/网络协议栈
为了类型转换,分别定义了4对宏方便转换:
struct -> uint:pte_val(), pmd_val(), pgd_val() ,pgprot_val()
uint -> struct:__pte(), __pmd(), __pgd() , __pgprot()
宏pgprot_t 是用来存储pte的保护位,一般用来与pte第12位进行比较和设置其值。
pte在x86没有开PAE的case下,其低12位是用来存储保护位标志的:
Field:
由于一个页框的容量是4KB,所以该物理地址的低12位总是0‘
若此页表结构指向的一个页目录项,则该字段的物理地址对应的物理页框里面的内容是一个页表。
若此页表结构指向的一个页表项,则该字段的物理地址对应的物理页框是一页数据
Present (P):
若Present = 1,所指的也在内存中
若Present = 0,所指的页不在内存中.此时该结构中的其他位置可以由操作系统来支配,如果运行的的线性地址对用的页表项的Present = 0,则分页单元会将该线性地址存入寄存器cr
2,并产生一个缺页异常:14号异常
Accessed (A):
分页单元对相应的页框进行寻址时就设置这个标志.当选中页被交换出去时,该标志位就可以有操作系统来支配.分页单元从不重置这个标志
Dirty (D):
此标志只用于页表项中,用于标记页框有进行写操作
Read/Write (R/W):
页或者页表的存取权限
User/Supervisor (U/S):
页或者页表所需的特权级
Page Size:
只应用于目录项,若设置为1,则页目录项指的是4MB或者2MB的页框.
为了遍历页目录,下面三个宏被定义用来将一个线性地址快速分离出其内部组成部分。
#define pgd_offset(mm, address) ((mm)->pgd+pgd_index(address))
#define pgd_index(address) (((address) >> PGDIR_SHIFT) & (PTRS_PER_PGD-1))
pmd_offset():输入一个PGD项(找到页框地址)和一个线性地址(找到pmd的偏移),返回一个对应的PMD
#define pmd_offset(dir, address) ((pmd_t *) pgd_page(*(dir)) + pmd_index(address))
#define pgd_page(pgd) ((unsigned long) __va(pgd_val(pgd) & PAGE_MASK))
pte_offset_kernel():输入一个PMD(找到页框地址)和一个线性地址(找到页内偏移):
#define pte_offset_kernel(pmd, address) ((pte_t *) pmd_page_kernel(*(pmd)) + pte_index(address))
#define pmd_page_kernel(pmd) ((unsigned long) __va(pmd_val(pmd) & PAGE_MASK))
#define pte_index(address) (((address) >> PAGE_SHIFT) & (PTRS_PER_PTE - 1))
第二轮的宏函数是用来检查页表项是否存在或者是否有人在使用:
上述的几组宏的使用例程:
pgd_t *pgd;
pmd_t *pmd;
pte_t *ptep, pte;
pgd = pgd_offset(mm, address);
if (pgd_none(*pgd) || pgd_bad(*pgd))
goto out;
pmd = pmd_offset(pgd, address);
if (pmd_none(*pmd) || pmd_bad(*pmd))
goto out;
ptep = pte_offset(pmd, address);
if (!ptep)
goto out;
pte = *ptep;
第三轮的宏是用来检查页表项的权限和设置页表项的权限。这些权限决定了一个用户空间的进程在一个page上能干什么不能干什么。举例:内核页表项永远不能被用户进程读取。
#define page_to_pfn(page) ((unsigned long)((page) - mem_map)) //mem_map中的偏移就是PFN
#define pfn_pte(pfn, prot) __pte(((pfn) << PAGE_SHIFT) | pgprot_val(prot)) //将PFN与权限bit为合并形成pte_t
#define mk_pte(page, pgprot) pfn_pte(page_to_pfn(page), (pgprot))
#define set_pte(pteptr, pteval) (*(pteptr) = pteval)
分配释放页表(Allocating and Freeing Page Tables)
分配函数: pgd_alloc(), pmd_alloc() and pte_alloc()
释放函数:pgd_free(), pmd_free() and pte_free()
当系统启动时,分页功能还没有启用因为页表不会自己初始化自己。因为每种架构中的具体实现各不相同本文只讨论x86的case。page table的初始化被分为两个阶段:
bootstrap阶段创建前8MB的页表来开启分页单元。
Finalising阶段初始化剩余的页表。
Bootstrapping阶段
在文件arch/i386/kernel/head.S中的startup_32()汇编函数负责开启分页单元。一般内核的所有常规代码编译后的内核镜像vmlinuz的起始地址被设置位PAGE_OFFSET + 1MB。而内核实际加载地址是物理内存1MB的位置开始的。从0~1MB这段物理地址通常被某些设备用来个BIOS通信,所以被内核弃之不用。Bootstrapping阶段的代码从虚拟地址转换为物理地址的方法是vaddr - _PAGE_OFFSET,就是直接映射。Bootstrapping阶段要用此方法映射从1MB开始的前8MB物理地址(1MB ~ 9MB)到虚拟地址,直到分页单元被启用。
内核页表初始化从内核编译时静态定义的swapper_pg_dir数组开始,swapper_pg_dir的地址为0x00101000,再建立两页的页表项:pg0,pg1。将swapper_pg_dir中的第0项和第768项设置为pg0的物理地址,第1项和第769项设定为pg1页框的物理地址,swapper_pg_dir中的其他项都填0.这也就是说当分页功能开启的时候,内核无论是用物理地址还是虚拟地址都可以将这两页表映射到正确的page中。其余的页表由paging_init()函数来进行初始化。
一旦临时内核页表映射完成,就会通过设置cr0寄存器的一个bit位来开启分页单元。
在文件arch/i386/kernel/head.S中的startup_32()汇编函数负责开启分页单元。一般内核的所有常规代码编译后的内核镜像vmlinuz的起始地址被设置位PAGE_OFFSET + 1MB。而内核实际加载地址是物理内存1MB的位置开始的。从0~1MB这段物理地址通常被某些设备用来个BIOS通信,所以被内核弃之不用。Bootstrapping阶段的代码从虚拟地址转换为物理地址的方法是vaddr - _PAGE_OFFSET,就是直接映射。Bootstrapping阶段要用此方法映射从1MB开始的前8MB物理地址(1MB ~ 9MB)到虚拟地址,直到分页单元被启用。
内核页表初始化从内核编译时静态定义的swapper_pg_dir数组开始,swapper_pg_dir的地址为0x00101000,再建立两页的页表项:pg0,pg1。将swapper_pg_dir中的第0项和第768项设置为pg0的物理地址,第1项和第769项设定为pg1页框的物理地址,swapper_pg_dir中的其他项都填0.这也就是说当分页功能开启的时候,内核无论是用物理地址还是虚拟地址都可以将这两页表映射到正确的page中。其余的页表由paging_init()函数来进行初始化。
一旦临时内核页表映射完成,就会通过设置cr0寄存器的一个bit位来开启分页单元。
在此阶段会执行paging_init()函数来执行,其调用流程如下:
pagetable_init() 会初始化内核线性映射区间的虚拟地址到物理地址转换所需的页表。此时只创建pmd和pte,并未将每个页框创建相应的struct page,其具体初始化的虚拟地址段如下图所示:
然后再调用page_table_range_init()初始化固定映射区域的内核页表:
一旦pagetable_init()返回,内核空间的所有页表都初始化完成,因此swapper_pg_dir会被加载到cr3寄存器,以此这些页表就可被分页单元使用了。
kmap_init():将rang_init对应的PTEs加上保护位PAGE_KERNEL
zone_sizes_init():初始化各个zone,其中最重要的是为每个页框分配struct page,形成mem_map数组。
Mapping Physical to Virtual Kernel Addresses
从Linux的线性映射我们可以知道物理地址0对应虚拟地址PAGE_OFFSET(3GB),因此任何线性映射区的虚拟地址转换成物理地址的方法就非常简单了,直接将虚拟地址减去PAGE_OFFSET即可。下面来看看内核的实现:
虚拟地址 --> 物理地址
#define __pa(x) ((unsigned long)(x)-PAGE_OFFSET) //将虚拟地址转换为物理地址
static inline unsigned long virt_to_phys(volatile void * address)
{
return __pa(address);
}
物理地址 --> 为虚拟地址
#define __va(x) ((void *)((unsigned long)(x)+PAGE_OFFSET)) //将物理地址转换为虚拟地址
static inline void * phys_to_virt(unsigned long address)
{
return __va(address);
}
从上面的章节我们可以知道kernel image的起始地址是物理地址1MB的地方,然后改物理地址转换成虚拟地址之后就是PAGE_OFFSET + 0x0010000,其后续的一个8MB的地址空间是留给内核的静态代码使用的区域。所以这是不是就预示着第一个可用的虚拟地址就是0xC0800000呢?其实不是如此,Linux尽量将前16MB的虚拟地址留给ZONE_DMA,因此第一个可供内核动态分配可用的虚拟地址是0xC1000000。这也就是全局变量mem_map的地址。ZONE_DMA只有在很必要的情况下使用。
物理地址转换为struct page是通过将物理地址视为mem_map数组的index。将物理地址向右平移PAGE_SHIFT个bit将得到PFN,PFN也是mem_map的index。即 struct *page = mem_map[paddr >> PAGE_SHIFT]
vaddr -> struct page:
#define virt_to_page(kaddr) (mem_map + (__pa(kaddr) >> PAGE_SHIFT))
struct page -> paddr:
显而易见,通过page的地址就可以知道该page在mem_map中的index,其index就是PFN,然后将其后12位补0,就是物理地址。
至此来总结下Linux的地址模型:
在早期,当处理器需要将虚拟地址映射成物理地址时,它必须扫描所有页目录来搜索需要的PTE。为了避免这种可以想象的消耗,各种不同的硬件架构都给出了一小块内部缓存空间,即提供TLB来缓存虚拟地址到物理地址的转换表。
尽管不是所有架构都有提供TLB,但是Linux内核还是假设所有架构够提供,不能提供的在编译的时候关掉响应的config即可。Linux提供了一些刷新TLB的hook函数:
CPU caches,例如,TLB caches,主要是利用程序优先使用局部的数据。为了避免在使用数据时都要从主内存中取数据,CPU从而开始缓存一小部分数据在CPU cache中。通常来讲,有两种层级的cache,Level 1 和Level 2 CPU cache,L2 cache比L1 cache要慢很多。Linux通常只关心L1 cache。
CPU cache通常被组织成lines(行)。每个Line通常非常小,一般是32个字节,每个Line都需要与自己的边界对齐。换句话说,就是一个32字节的cache line将要求32字节对齐。在Linux中line大小有变量L1_CACHE_BYTES来描述,由各种架构自己定义具体的值。
地址如何被映射到cache line因架构而异。但是主要有三种方式:
不管是什么映射方案,它们有一个共同点:地址相近并且和cache size对齐的地址尽量使用不同的缓存行。因此Linux使用最简单的策略来最大利用cache:
结构中经常被访问的字段通常在结构开始的位置,从而增加仅用一个缓存行来处理普通字段的机会。
一个结构中不相关的项应该至少有缓存大小的字节数的隔离从而避免在CPU之间的错误共享。
通用缓存中的对象,如mm_struct 缓存,应该要与L1 CPU cache对齐从而避免错误共享。
如果CPU要引用的一个地址不再CPU cache中,CPU就需要从主内存中取数据。然后CPU cache匹配失败的代价是非常昂贵的,因为从L1 cache中访问一个地址只需要10ns,而从主内存中访问一个地址要100 ~ 200ns。因此最基本的原则是尽可能多的命中缓存尽可能少的命中缓存。