学号后三位:491
原创作品,转载请注明出处
参考连接https://github.com/mengning/linuxkernel/
PCB
)。在Linux中,task_struct
其实就是通常所说的PCB
。所属的头文件#include
每个进程都会被分配一个task_struct
结构,它包含了这个进程的所有信息,在任何时候操作系统都能够跟踪这个结构的信息。task_struct结构中主要包含以下内容:
struct task_struct{
pid_t pid; //进程id
uid_t uid,euid;
gid_t gid,egid;
volatile long state; //进程状态,0 running(运行/就绪);1/2 均等待态,分别响应/不响应异步信号;4 僵尸态,Linux特有,为生命周期已终止,但PCB未释放;8 暂停态,可被恢复
int exit_state; //退出的状态
unsigned int rt_priority; //调度优先级
unsigned int policy; //调度策略
struct list_head tasks;
struct task_struct *real_parent;
struct task_struct *parent;
struct list_head children,sibling;
struct fs_struct *fs; //进程与文件系统管理,进程工作的目录与根目录
struct files_struct *files; //进程对所有打开文件的组织,存储指向文件的句柄们
struct mm_struct *mm; //内存管理组织,存储了进程在用户空间不同的地址空间,可能存的数据,可能代码段
struct signal_struct *signal; //进程间通信机制--信号
struct sighand_struct *sighand; //指向进程
cputime_t utime, stime; //进程在用户态、内核态下所经历的节拍数
struct timespec start_time; //进程创建时间
struct timespec real_start_time; //包括睡眠时间的创建时间
}
具体过程如下:
fork() -> sys_clone() -> do_fork() -> dup_task_struct() -> copy_process() -> copy_thread() -> ret_from_fork()
long do_fork(unsigned long clone_flags,
unsigned long stack_start,
unsigned long stack_size,
int __user *parent_tidptr,
int __user *child_tidptr)
{
struct task_struct *p;
int trace = 0;
long nr;
// ...
// 复制进程描述符,返回创建的task_struct的指针
p = copy_process(clone_flags, stack_start, stack_size,
child_tidptr, NULL, trace);
if (!IS_ERR(p)) {
struct completion vfork;
struct pid *pid;
trace_sched_process_fork(current, p);
// 取出task结构体内的pid
pid = get_task_pid(p, PIDTYPE_PID);
nr = pid_vnr(pid);
if (clone_flags & CLONE_PARENT_SETTID)
put_user(nr, parent_tidptr);
// 如果使用的是vfork,那么必须采用某种完成机制,确保父进程后运行
if (clone_flags & CLONE_VFORK) {
p->vfork_done = &vfork;
init_completion(&vfork);
get_task_struct(p);
}
// 将子进程添加到调度器的队列,使得子进程有机会获得CPU
wake_up_new_task(p);
// ...
// 如果设置了 CLONE_VFORK 则将父进程插入等待队列,并挂起父进程直到子进程释放自己的内存空间
// 保证子进程优先于父进程运行
if (clone_flags & CLONE_VFORK) {
if (!wait_for_vfork_done(p, &vfork))
ptrace_event_pid(PTRACE_EVENT_VFORK_DONE, pid);
}
put_pid(pid);
} else {
nr = PTR_ERR(p);
}
return nr;
}
(1)调用copy_process
,将当期进程复制一份出来为子进程,并且为子进程设置相应地上下文信息。
(2)初始化vfork
的完成处理信息(如果是vfork
调用)
(3)调用wake_up_new_task
,将子进程放入调度器的队列中,此时的子进程就可以被调度进程选中,得以运行。
(4)如果是vfork
调用,需要阻塞父进程,知道子进程执行exec
1、do_fork()
流程
首先调用copy_process()
为子进程复制出一份进程信息,如果是vfork()
则初始化完成处理信息;
然后调用wake_up_new_task
将子进程加入调度器,为之分配CPU,如果是vfork()
,则父进程等待子进程完成exec
替换自己的地址空间
2、copy_process()
流程
首先调用dup_task_struct()
复制当前的task_struct
,检查进程数是否超过限制;
接着初始化自旋锁、挂起信号、CPU 定时器等;
然后调用sched_fork
初始化进程数据结构,并把进程状态设置为TASK_RUNNING
,复制所有进程信息,包括文件系统、信号处理函数、信号、内存管理等;
调用copy_thread()
初始化子进程内核栈,为新进程分配并设置新的pid
3、dup_task_struct()
流程
调用alloc_task_struct_node()
分配一个task_struct
节点;
调用alloc_thread_info_node()
分配一个thread_info
节点,其实是分配了一个thread_union
联合体,将栈底返回给ti
;
最后将栈底的值ti
赋值给新节点的栈。
4、copy_thread
的流程
获取子进程寄存器信息的存放位置
对子进程的thread.sp
赋值,将来子进程运行,这就是子进程的esp
寄存器的值。
如果是创建内核线程,那么它的运行位置是ret_from_kernel_thread
,将这段代码的地址赋给thread.ip
,之后准备其他寄存器信息,退出
将父进程的寄存器信息复制给子进程。
将子进程的eax
寄存器值设置为0,所以fork调用在子进程中的返回值为0.
子进程从ret_from_fork
开始执行,所以它的地址赋给thread.ip
,也就是将来的eip
寄存器。
5、新进程从ret_from_fork
处开始执行,子进程的运行是由这几处保证的
dup_task_struct
中为其分配了新的堆栈
copy_process
中调用了sched_fork
,将其置为TASK_RUNNING
copy_thread
中将父进程的寄存器上下文复制给子进程,这是非常关键的一步,这里保证了父子进程的堆栈信息是一致的。
将ret_from_fork
的地址设置为eip
寄存器的值,这是子进程的第一条指令。
问题:如何创建一个新进程
通过调用do_fork
来实现进程的创建;
复制父进程PCB–task_struct
来创建一个新进程,要给新进程分配一个新的内核堆栈;
修改复制过来的进程数据,比如pid
、进程链表等等执行copy_process
和copy_thread
1.启动MenuOS
cd LinuxKernel
rm -rf menu
git clone https://github.com/mengning/menu.git
cd menu
mv test_fork.c test.c
make rootfs
2.进入gdb调试模式(在LinuxKernel文件夹下执行以下命令)
gdb
file linux-3.18.6/vmlinux
target remote:1234
在以下位置设置断点
b sys_clone
b do_fork
b dup_task_struct
b copy_process
b copy_thread
b ret_from_for
运行后首先停在sys_clone处:
然后到do_fork:
再到copy_process
进入copy_thread
在copy_thread中,我们可以查看p的值
动态链接库(Dynamic Linked Library): Windows为应用程序提供了丰富的函数调用,这些函数调用都包含在动态链接库中。其中有3个最重要的DLL,Kernel32.dll,它包含用于管理内存、进程和线程的各个函数;User32.dll,它包含用于执行用户界面任务(如窗口的创建和消息的传送)的各个函数;GDI32.dll,它包含用于画图和显示文本的各个函数。
静态库(Static Library):
函数和数据被编译进一个二进制文件(通常扩展名为.LIB)。在使用静态库的情况下,在编译链接可执行文件时,链接器从库中复制这些函数和数据并把它们和应用程序的其它模块组合起来创建最终的可执行文件(.EXE文件)。
ELF文件由4部分组成,分别是ELF头(ELF header)、程序头表(Program header table)、节(Section)和节头表(Section header table)。实际上,一个文件中不一定包含全部内容,而且他们的位置也未必如同所示这样安排,只有ELF头的位置是固定的,其余各部分的位置、大小等信息由ELF头中的各项值来决定。
第一步:先编辑一个hello.c
#include
#include
int main()
{
printf("Hello World!\n");
return 0;
}
第二步:生成预处理文件hello.cpp(预处理负责把include的文件包含进来及宏替换等工作)
第三步:编译成汇编代码hello.s
第四步:编译成目标代码,得到二进制文件hello.o
第五步:链接成可执行文件hello,(它是二进制文件)
第六步:运行一下./hello
我们也可以静态编译,(是完全把所有需要执行所依赖的东西放到程序内部)
gcc -o hello.static hello.o -m32 -static
hello.static 也是ELF格式文件,运行一下hello.static ./hello.static
静态链接方式:在程序运行之前完成所有的组装工作,生成一个可执行的目标文件
动态链接方式:在程序已经为了执行被装载入内存之后完成链接工作,并且在内存中一般只保留该编译单元的一份拷贝
动态链接库的两种链接方法:
装载时动态链接
运行时动态链接
int do_execve(struct filename *filename,
const char __user *const __user *__argv,
const char __user *const __user *__envp)
{
struct user_arg_ptr argv = { .ptr.native = __argv };
struct user_arg_ptr envp = { .ptr.native = __envp };
//调用do_execve_common
return do_execve_common(filename, argv, envp);
}
新的可执行程序通过修改内核堆栈eip作为新程序的起点,从new_ip开始执行后start_thread把返回到用户态的位置从int 0x80的下一条指令变成新加载的可执行文件的入口位置。
当执行到execve系统调用时,进入内核态,用execve()加载的可执行文件覆盖当前进程的可执行程序。当execve系统调用返回时,返回新的可执行程序的执行起点(main函数),所以execve系统调用返回后新的可执行程序能顺利执行。execve系统调用返回时,如果是静态链接,elf_entry指向可执行文件规定的头部(main函数对应的位置0x8048***);如果需要依赖动态链接库,elf_entry指向动态链接器的起点。动态链接主要是由动态链接器ld来完成的。
调用地方:
中断处理过程(包括时钟中断、I/O中断、系统调用和异常)中,直接调用schedule(),或者返回用户态时根据need_resched标记调用schedule()
内核线程可以直接调用schedule()进行进程切换,也可以在中断处理过程中进行调度,也就是说内核线程作为一类的特殊的进程可以主动调度,也可以被动调度;
用户态进程无法实现主动调度,仅能通过陷入内核态后的某个时机点进行调度,即在中断处理过程中进行调度。
首先设几个断点分别是schedule,pick_next_task,context_switch,__switch_to
schdule调用和函数
两个重要的函数context_switch和pick_next_task函数都在__schedule函数中
pick_next_task
context_switch
1.关键函数的调用关系
schedule() --> context_switch() --> switch_to --> __switch_to()
2.汇编代码分析:
asm volatile("pushfl\n\t" /* 保存当前进程的标志位 */
"pushl %%ebp\n\t" /* 保存当前进程的堆栈基址EBP */
"movl %%esp,%[prev_sp]\n\t" /* 保存当前栈顶ESP */
"movl %[next_sp],%%esp\n\t" /* 把下一个进程的栈顶放到esp寄存器中,完成了内核堆栈的切换,从此往下压栈都是在next进程的内核堆栈中。 */
"movl $1f,%[prev_ip]\n\t" /* 保存当前进程的EIP */
"pushl %[next_ip]\n\t" /* 把下一个进程的起点EIP压入堆栈 */
__switch_canary
"jmp __switch_to\n" /* 因为是函数所以是jmp,通过寄存器传递参数,寄存器是prev-a,next-d,当函数执行结束ret时因为没有压栈当前eip,所以需要使用之前压栈的eip,就是pop出next_ip。 */
"1:\t" /* 认为next进程开始执行。 */
"popl %%ebp\n\t" /* restore EBP */
"popfl\n" /* restore flags */
/* output parameters 因为处于中断上下文,在内核中
prev_sp是内核堆栈栈顶
prev_ip是当前进程的eip */
: [prev_sp] "=m" (prev->thread.sp),
[prev_ip] "=m" (prev->thread.ip), //[prev_ip]是标号
"=a" (last),
/* clobbered output registers: */
"=b" (ebx), "=c" (ecx), "=d" (edx),
"=S" (esi), "=D" (edi)
__switch_canary_oparam
/* input parameters:
next_sp下一个进程的内核堆栈的栈顶
next_ip下一个进程执行的起点,一般是$1f,对于新创建的子进程是ret_from_fork*/
: [next_sp] "m" (next->thread.sp),
[next_ip] "m" (next->thread.ip),
/* regparm parameters for __switch_to(): */
[prev] "a" (prev),
[next] "d" (next)
__switch_canary_iparam
: /* reloaded segment registers */
"memory");
} while (0)
switch_to实现了进程之间的真正切换:
首先在当前进程prev的内核栈中保存esi,edi及ebp寄存器的内容。
然后将prev的内核堆栈指针ebp存入prev->thread.esp中。
把将要运行进程next的内核栈指针next->thread.esp置入esp寄存器中
将popl指令所在的地址保存在prev->thread.eip中,这个地址就是prev下一次被调度
通过jmp指令(而不是call指令)转入一个函数__switch_to()
恢复next上次被调离时推进堆栈的内容。从现在开始,next进程就成为当前进程而真正开始执行
Linux系统的一般执行过程
最一般的情况:正在运行的用户态进程X切换到运行用户态进程Y的过程
(1)正在运行的用户态进程X
(2)发生中断——save cs:eip/esp/eflags(current) to kernel stack,then load cs:eip(entry of a specific ISR) and ss:esp(point to kernel stack).
(3)SAVE_ALL //保存现场
(4)中断处理过程中或中断返回前调用了schedule(),其中的switch_to做了关键的进程上下文切换
(5)标号1之后开始运行用户态进程Y(这里Y曾经通过以上步骤被切换出去过因此可以从标号1继续执行)
(6)restore_all //恢复现场
(7)iret - pop cs:eip/ss:esp/eflags from kernel stack
(8)继续运行用户态进程Y