linux源码阅读(精品)

一位大师级的人物写的,不看要后悔的哟!!

接上贴


如果以为到了c代码可以松一口气的话,就大错特措了,linux的c也不比汇编好懂多少,相反到掩盖了汇编的一些和机器相关的部分,有时候更难懂。其实作为编写操作系统的c代码,只不过是汇编的另一种写法,和机器代码的联系是很紧密的。 



start_kernel在 /linux/init/main.c中定义: 


asmlinkage void __init start_kernel(void) 

char * command_line; 
unsigned long mempages; 
extern char saved_command_line[]; 
lock_kernel(); 
printk(linux_banner); 
setup_arch(&command_line); //arm/kernel/setup.c 
printk("Kernel command line: %s\n", saved_command_line); 
parse_options(command_line); 


trap_init(); // arm/kernle/traps.c install 
。。。。。。。。。 


start_kernel中的函数个个都是重量级的,首先用printk(linux_banner);打出 
系统版本号,这里面就大有文章,系统才刚开张,你让他打印到哪里去呢? 
先给大家交个底,以后到console的部分自然清楚,printk和printf不同,他首先输出到系统的一个缓冲区内,大约4k,如果登记了console,则调用console->wirte函数输出,否则就一直在buffer里呆着。所以,用printk输出的信息,如果超出了4k,会冲掉前面的。在系统引导起来后,用dmesg看的也就是这个buffer中的东东。 



下面就是一个重量级的函数: 
setup_arch(&command_line); //arm/kernel/setup.c 
完成内存映像的初始化,其中command_line是从bootloader中传下来的。 



void __init setup_arch(char **cmdline_p) 

struct param_struct *params = NULL; 
struct machine_desc *mdesc; //arch structure, for your ads, defined in include/arm-asm/mach/arch.h very long 
struct meminfo meminfo; 
char *from = default_command_line; 


memset(&meminfo, 0, sizeof(meminfo)); 


首先把meminfo清零,有个背景介绍一下,从linux 2.4的内核开始,支持内存的节点(node),也就是可支持不连续的物理内存区域。这一点在嵌入式系统中很有用,例如对于SDRAM和FALSH,性质不同,可作为不同的内存节点。 



meminfo结构定义如下: 


/******************************************************/ 
#define NR_BANKS 4 
//define the systen mem region, not consistent 
struct meminfo { 
int nr_banks; 
unsigned long end; 
struct { 
unsigned long start; 
unsigned long size; 
int node; 
} bank[NR_BANKS]; 
}; 
/******************************************************/ 


下面是:ROOT_DEV = MKDEV(0, 255); 


ROOT_DEV是宏,指明启动的设备,嵌入式系统中通常是flash disk. 
这里面有一个有趣的悖论:linux的设备都是在/dev/下,访问这些设备文件需要设备驱动程序支持,而访问设备文件才能取得设备号,才能加载驱动程序,那么第一个设备驱动程序是怎么加载呢?就是ROOT_DEV, 不需要访问设备文件,直接指定设备号。 



下面我们准备初始化真正的内核页表,而不再是临时的了。 
首先还是取得当前系统的内存映像: 


mdesc = setup_architecture(machine_arch_type); 
//find the machine type in mach-integrator/arch.c 
//the ads name, mem map, io map 


返回如下结构: 
mach-integrator/arch.c 


MACHINE_START(INTEGRATOR, "Motorola MX1ADS") 
MAINTAINER("ARM Ltd/Deep Blue Solutions Ltd") 
BOOT_MEM(0x08000000, 0x00200000, 0xf0200000) 
FIXUP(integrator_fixup) 
MAPIO(integrator_map_io) 
INITIRQ(integrator_init_irq) 
MACHINE_END 


我们在前面介绍过这个结构,不过这次用它可是玩真的了。 



书接上回, 
下面是init_mm的初始化,init_mm定义在/arch/arm/kernel/init_task.c: 
struct mm_struct init_mm = INIT_MM(init_mm); 



从本回开始的相当一部分内容是和内存管理相关的,凭心而论,操作系统的 
内存管理是很复杂的,牵扯到处理器的硬件细节和软件算法, 
限于篇幅所限制,请大家先仔细读一读arm mmu的部分, 
中文参考资料:linux内核源代码情景对话, 
linux2.4.18原代码分析。 


init_mm.start_code = (unsigned long) &_text; 
内核代码段开始 
init_mm.end_code = (unsigned long) &_etext; 
内核代码段结束 
init_mm.end_data = (unsigned long) &_edata; 
内核数据段开始 
init_mm.brk = (unsigned long) &_end; 
内核数据段结束 


每一个任务都有一个mm_struct结构管理任务内存空间,init_mm 
是内核的mm_struct,其中设置成员变量* mmap指向自己, 
意味着内核只有一个内存管理结构,设置* pgd=swapper_pg_dir, 
swapper_pg_dir是内核的页目录,在arm体系结构有16k, 
所以init_mm定义了整个kernel的内存空间,下面我们会碰到内核 
线程,所有的内核线程都使用内核空间,拥有和内核同样的访问 
权限。 


memcpy(saved_command_line, from, COMMAND_LINE_SIZE); 
//clear command array 


saved_command_line[COMMAND_LINE_SIZE-1] = '\0'; 
//set the end flag 


parse_cmdline(&meminfo, cmdline_p, from); 
//将bootloader的参数拷贝到cmdline_p, 



bootmem_init(&meminfo); 
定义在arm/mm/init.c 
这个函数在内核结尾分一页出来作位图,根据具体系统的内存大小 
映射整个ram 


下面是一个非常重要的函数 
paging_init(&meminfo, mdesc); 
定义在arm/mm/init.c 
创建内核页表,映射所有物理内存和io空间, 
对于不同的处理器,这个函数差别很大, 


void __init paging_init(struct meminfo *mi, struct machine_desc *mdesc) 

void *zero_page, *bad_page, *bad_table; 
int node; 


//static struct meminfo meminfo __initdata = { 0, }; 


memcpy(&meminfo, mi, sizeof(meminfo)); 


/* 
* allocate what we need for the bad pages. 
* note that we count on this going ok. 
*/ 


zero_page = alloc_bootmem_low_pages(PAGE_SIZE); 
bad_page = alloc_bootmem_low_pages(PAGE_SIZE); 
bad_table = alloc_bootmem_low_pages(TABLE_SIZE); 


分配三个页出来,用于处理异常过程,在armlinux中,得到如下 
地址: 
zero_page=0xc0000000 
bad page=0xc0001000 
bad_table=0xc0002000 



上回我们说到在paging_init中分配了三个页: 


zero_page=0xc0000000 
bad page=0xc0001000 
bad_table=0xc0002000 


但是奇怪的很,在更新的linux代码中只分配了一个 
zero_page,而且在源代码中找不到zero_page 
用在什么地方了,大家讨论讨论吧。 


paging_init的主要工作是在 
void __init memtable_init(struct meminfo *mi) 
中完成的,为系统内存创建页表: 


meminfo结构如下: 


struct meminfo { 
int nr_banks; 
unsigned long end; 
struct { 
unsigned long start; 
unsigned long size; 
int node; 
} bank[NR_BANKS]; 
}; 


是用来纪录系统中的内存区段的,因为在嵌入式 
系统中并不是所有的内存都能映射,例如sdram只有 
64m,flash 32m,而且不见得是连续的,所以用 
meminfo纪录这些区段。 


void __init memtable_init(struct meminfo *mi) 

struct map_desc *init_maps, *p, *q; 
unsigned long address = 0; 
int i; 


init_maps = p = alloc_bootmem_low_pages(PAGE_SIZE); 


其中map_desc定义为: 


struct map_desc { 
unsigned long virtual; 
unsigned long physical; 
unsigned long length; 
int domain:4, //页表的domain 
prot_read:1, //保护标志 
prot_write:1, //写保护标志 
cacheable:1, //是否cache 
bufferable:1, //是否用write buffer 
last:1; //空 
};init_maps 


map_desc是区段及其属性的定义,属性位的意义请 
参考ARM MMU的介绍。 


下面对meminfo的区段进行遍历,同时填写init_maps 
中的各项内容: 
for (i = 0; i < mi->nr_banks; i++) { 
if (mi->bank.size == 0) 
continue; 


p->physical = mi->bank.start; 
p->virtual = __phys_to_virt(p->physical); 
p->length = mi->bank.size; 
p->domain = DOMAIN_KERNEL; 
p->prot_read = 0; 
p->prot_write = 1; 
p->cacheable = 1; //可以CACHE 
p->bufferable = 1; //使用write buffer 
p ++; //下一个区段 



如果系统有flash, 
#ifdef FLUSH_BASE 
p->physical = FLUSH_BASE_PHYS; 
p->virtual = FLUSH_BASE; 
p->length = PGDIR_SIZE; 
p->domain = DOMAIN_KERNEL; 
p->prot_read = 1; 
p->prot_write = 0; 
p->cacheable = 1; 
p->bufferable = 1; 


p ++; 
#endif 


其中的prot_read和prot_write是用来设置页表的domain的, 


下面就是逐个区段建立页表: 


q = init_maps; 
do { 
if (address < q->virtual || q == p) { 
clear_mapping(address); 
address += PGDIR_SIZE; 
} else { 
create_mapping(q); 


address = q->virtual + q->length; 
address = (address + PGDIR_SIZE - 1) & PGDIR_MASK; 


q ++; 

} while (address != 0); 



上次说到memtable_init中初始化页表的循环, 
这个过程比较重要,我们看仔细些: 



q = init_maps; 
do { 
if (address < q->virtual || q == p) { 
//由于内核空间是从c000 0000开始,所以c000 0000 
//以前的页表项全部清空 


clear_mapping(address); 
address += PGDIR_SIZE; 
//每个表项增加1m,这里感到了section的好处 



其中clear_mapping()是个宏,根据处理器的 
不同,在920下被展开为 


cpu_arm920_set_pmd(((pmd_t *)(((&init_mm )->pgd+ 
(( virt) >> 20 )))),((pmd_t){( 0 )})); 


其中init_mm为内核的mm_struct,pgd指向 
swapper_pg_dir,在arch/arm/kernel/init_task.c中定义 


ENTRY(cpu_arm920_set_pmd) 
#ifdef CONFIG_CPU_ARM920_WRITETHROUGH 
eor r2, r1, #0x0a 
tst r2, #0x0b 
biceq r1, r1, #4 
#endif 
str r1, [r0] 


把pmd_t填写到页表项中,由于pmd_t=0, 
实际等于清除了这一项,由于d cache打开, 
这一条指令实际并没有写回内存,而是写到cache中 


mcr p15, 0, r0, c7, c10, 1 


把cache中 地址r0对应的内容写回内存中, 
这一条语句实际是写到了write buffer中, 
还没有真正写回内存。 


mcr p15, 0, r0, c7, c10, 4 


等待把write buffer中的内容写回内存。在这之前core等待 


mov pc, lr 


在这里我们看到,由于页表的内容十分关键,为了确保写回内存, 
采用了直接操作cache的方法。由于在arm core中,打开了d cache 
则必定要用write buffer.所以还有wb的回写问题。 
由于考虑到效率,我们使用了cache和buffer, 
所以在某些地方要用指令保证数据被及时写回。 



下面映射c000 0000后面的页表 


else { 
create_mapping(q); 


address = q->virtual + q->length; 
address = (address + PGDIR_SIZE - 1) & PGDIR_MASK; 


q ++; 

} while (address != 0); 



create_mapping也在mm-armv.c中定义; 


static void __init create_mapping(struct map_desc *md) 

unsigned long virt, length; 
int prot_sect, prot_pte; 
long off; 


prot_pte = L_PTE_PRESENT | L_PTE_YOUNG | L_PTE_DIRTY | 
(md->prot_read ? L_PTE_USER : 0) | 
(md->prot_write ? L_PTE_WRITE : 0) | 
(md->cacheable ? L_PTE_CACHEABLE : 0) | 
(md->bufferable ? L_PTE_BUFFERABLE : 0); 


prot_sect = PMD_TYPE_SECT | PMD_DOMAIN(md->domain) | 
(md->prot_read ? PMD_SECT_AP_READ : 0) | 
(md->prot_write ? PMD_SECT_AP_WRITE : 0) | 
(md->cacheable ? PMD_SECT_CACHEABLE : 0) | 
(md->bufferable ? PMD_SECT_BUFFERABLE : 0); 


由于arm中section表项的权限位和page表项的位置不同, 
所以根据struct map_desc 中的保护标志,分别计算页表项 
中的AP,domain,CB标志位。 


有一段时间没有写了,道歉先,前一段时间在做arm linux的xip,终于找到了 
在flash中运行kernel的方法,同时对系统的存储管理 
的理解更深了一层,我们继续从上回的create_mapping往下看: 


while ((virt & 0xfffff || (virt + off) & 0xfffff) && length >= PAGE_SIZE) { 
alloc_init_page(virt, virt + off, md->domain, prot_pte); 


virt += PAGE_SIZE; 
length -= PAGE_SIZE; 



while (length >= PGDIR_SIZE) { 
alloc_init_section(virt, virt + off, prot_sect); 


virt += PGDIR_SIZE; 
length -= PGDIR_SIZE; 



while (length >= PAGE_SIZE) { 
alloc_init_page(virt, virt + off, md->domain, prot_pte); 


virt += PAGE_SIZE; 
length -= PAGE_SIZE; 

这3个循环的设计还是很巧妙的,create_mapping的作用是设置虚地址virt 
到物理地址virt + off的映射页目录和页表。arm提供了4种尺寸的页表: 
1M,4K,16K,64K,armlinux只用到了1M和4K两种。 


这3个while的作用分别是“掐头“,“去尾“,“砍中间“。 
第一个while是判断要映射的地址长度是否大于1m,且是不是1m对齐, 
如果不是,则需要创建页表,例如,如果要映射的长度为1m零4k,则先要将“零头“ 
去掉,4k的一段需要中间页表,通过第一个while创建中间页表, 
而剩下的1M则交给第二个while循环。最后剩下的交给第三个while循环。 



alloc_init_page分配并填充中间页表项 
static inline void 
alloc_init_page(unsigned long virt, unsigned long phys, int domain, int prot) 

pmd_t *pmdp; 
pte_t *ptep; 


pmdp = pmd_offset(pgd_offset_k(virt), virt);//返回页目录中virt对应的表项 


if (pmd_none(*pmdp)) {//如果表项是空的,则分配一个中间页表 
pte_t *ptep = alloc_bootmem_low_pages(2 * PTRS_PER_PTE * 
sizeof(pte_t)); 


ptep += PTRS_PER_PTE; 
//设置页目录表项 
set_pmd(pmdp, __mk_pmd(ptep, PMD_TYPE_TABLE | PMD_DOMAIN(domain))); 

ptep = pte_offset(pmdp, virt); 
//如果表项不是空的,则表项已经存在,只需要设置中间页表表项 
set_pte(ptep, mk_pte_phys(phys, __pgprot(prot))); 



alloc_init_section只需要填充页目录项 


alloc_init_section(unsigned long virt, unsigned long phys, int prot) 

pmd_t pmd; 


pmd_val(pmd) = phys | prot;//将物理地址和保护标志合成页目录项 


set_pmd(pmd_offset(pgd_offset_k(virt), virt), pmd); 



通过create_mapping可为内核建立所有的地址映射,最后是映射中断向量表 
所在的区域: 


init_maps->physical = virt_to_phys(init_maps); 
init_maps->virtual = vectors_base(); 
init_maps->length = PAGE_SIZE; 
init_maps->domain = DOMAIN_USER; 
init_maps->prot_read = 0; 
init_maps->prot_write = 0; 
init_maps->cacheable = 1; 
init_maps->bufferable = 0; 


create_mapping(init_maps); 


中断向量表的虚地址init_maps,是用alloc_bootmem_low_pages分配的, 
通常是在c000 8000前面的某一页, vectors_base()是个宏,arm规定中断 
向量表的地址只能是0或ffff0000,在cp15中设置。所以上述代码映射一页到 
0或ffff0000,下面我们还会看到,中断处理程序中的汇编部分也被拷贝到 
这一页中。

你可能感兴趣的:(linux源码阅读(精品))