每个进程被创建的时候,在生成进程描述符 task_struct 的同时,会生成两个栈:
task_struct
结构所在页面的末端。进程内核栈在 kernel 中的定义是:
union thread_union {
struct thread_info thread_info;
unsigned long stack[THREAD_SIZE/sizeof(long)];
};
每个 task 的内核栈大小THREAD_SIZE :
ARM:8k
ARM64:16K
为了保证内核和用户态隔离,陷入内核不影响用户态,所以使用了不同的栈。当进程在用户地址空间中执行的时候,使用的是用户栈,CPU 堆栈指针寄存器中存的是用户栈的地址;同理,当进程在内核空间执行时,CPU 堆栈指针寄存器中放的是内核栈的地址。
linux 单内核的含义是所有内核服务都在一个大内核地址空间上运行。多个内核线程,还有进程的内核栈,系统运行时是有多个内核栈的。
每个处理器都有自己的内核栈
Linux内核另外为中断提供了单独的硬中断栈和软中断栈
实际上在 linux kernel 中,task_struct、thread_info 都用来保存进程相关信息,即进程 PCB 信息。然而不同的体系结构里,进程需要存储的信息不尽相同,linux使用task_struct 存储通用的信息,将体系结构相关的部分存储在 thread_info 中。这也是为什么 struct task_struct
在 include/linux/sched.h 中定义,而 thread_info 在arch/ 下体系结构相关头文件里。
Linux 内核 中使用 task_struct
作为进程描述符,该结构定义在
文件中,task_struct
中有一个 stack
成员,而 stack
正好用于保存进程的内核栈地址。
thread_info 、内核栈、task_struct 是密切相关的,服务于进程的关键数据结构,在内核中定义截取如下:
struct task_struct {
#ifdef CONFIG_THREAD_INFO_IN_TASK
struct thread_info thread_info;
#endif
...
void *stack;
...
}
union thread_union {
#ifndef CONFIG_ARCH_TASK_STRUCT_ON_STACK
struct task_struct task;
#endif
#ifndef CONFIG_THREAD_INFO_IN_TASK
struct thread_info thread_info;
#endif
unsigned long stack[THREAD_SIZE/sizeof(long)];
};
struct thread_info {
unsigned long flags; /* low level flags */
int preempt_count; /* 0 => preemptable, <0 => bug */
mm_segment_t addr_limit; /* address limit */
struct task_struct *task; /* main task structure */
...
};
根据宏 “CONFIG_THREAD_INFO_IN_TASK
” 的存在与否,三者在内核中存在两种不同关联。
1) thread_info 结构在进程内核栈中
即当 “CONFIG_THREAD_INFO_IN_TASK = N
” 时,thread_info 和栈 stack 在一个联合体 thread_union内,共享一块内存,即 thread_info 在栈所在物理页框上。
进程描述符 task_struct 中的成员 “void *stack
” 指向内核栈。struct thread_info
结构体有成员 “struct task_struct *task
” 指向进程描述符 task_struct
。
三者关系可以描述如下:
因为 thread_info
结构和 stack
是联合体,thread_info
的地址就是栈所在页框的基地址。当获当前进程内核栈的 SP 寄存器存储的地址时,根据 THREAD_SIZE
对齐就可以获取 thread_info
结构的基地址。
2) thread_info 结构在进程描述符中(task_struct)
当 “CONFIG_THREAD_INFO_IN_TASK = Y
” 时,thread_info
就是 struct task_struct
的第一个成员。union thread_union
中只有栈,即栈和 thread_info
结构不再共享一块内存。task.stack
依旧存在。三者关系可描述为:
进程描述符中的 task_struct.stack 指针,是指向栈区域内存基地址,即 thread_union.stack 数组基地址,既不是栈顶也不是栈底,栈顶存在寄存器SP
中,栈底是 task_struct.stack+THREAD_SIZE,代码中引用时需要注意。
在 32 位 arm 架构中,thread_info 结构肯定在进程内核栈中。
arm32 linux current 宏的实现:
//arch/arm/include/asm/thread_info.h
register unsigned long current_stack_pointer asm ("sp");
static inline struct thread_info *current_thread_info(void)
{
return (struct thread_info *)
(current_stack_pointer & ~(THREAD_SIZE - 1));
}
//include/asm-generic/current.h
#define get_current() (current_thread_info()->task)
#define current get_current()
先通过 “sp
” 栈顶寄存器获取到当前进程的栈地址,通过 mask 计算,根据 page 对齐原理就可以拿到位于栈内存区域底部的 struct thread_info
地址。info->task
就是当前进程的进程描述符。
arm64 linux current 宏的实现:
//arch/arm64/include/asm/current.h
static __always_inline struct task_struct *get_current(void)
{
unsigned long sp_el0;
asm ("mrs %0, sp_el0" : "=r" (sp_el0));
return (struct task_struct *)sp_el0;
}
#define current get_current()
可以看到内核通过读取sp_el0 的值,然后将此值强转成 task_struct 结构就可以获得。
当进程因为中断或者系统调用陷入到内核态时,进程所使用的堆栈也要从用户栈转到内核栈。进程陷入到内核态后:
这样就完成了用户栈向内核栈的转换;当进程从内核态恢复到用户态之后时,在内核态之后的最后将保存在内核栈里面的用户栈的地址恢复到堆栈指针寄存器即可。这样就实现了用户栈和内核栈的互转。
内核通过虚拟地址访问权限来限制用户程序访问内存地址,比如内核空间的代码和数据不应该被用户程序访问到。因此内核运行时使用的栈不应该能被用户态代码访问到,否则用户态代码完全可以通过构造特定的数据控制内核。因此,用户态使用的栈空间和内核栈并无本质区别,它们均处于同一块页表映射中,内核栈处于高特权级访问限制的虚拟地址中,防止用户态代码访问内核数据。
用户态进程访问空间权限为 0-3G,这个地址在 MMU 中进行了权限的限制,所以当mmu 检测到用户空间地址后,会禁止其对内核空间进行访问,IO/memory的地址空间都位于内核空间,所以用户空间的进程是无法访问的。
MMU 是如何限制用户空间的访问权限?
在进程从用户态转到内核态的时候,进程的内核栈总是空的。这是因为当进程在用户态运行时,使用的用户栈,当进程陷入到内核态时,内核保存进程在内核态运行的相关信息,但是一旦进程返回到用户态后,内核栈中保存的信息无效,会全部恢复,因此每次进程从用户态陷入内核的时候得到的内核栈都是空的。所以在进程陷入内核的时候,直接把内核栈的栈顶地址给堆栈指针寄存器就可以了。
系统调用的处理还是很复杂的,从用户空间到内核需要经历处理器模式的切换,svc 指令实际上是一条软件中断指令,也是从用户空间主动到内核空间的唯一通路(被动可以通过中断、其它异常) 相对应的处理器模式为从 user 模式到 svc 模式,svc 指令执行系统调用的大致流程为:
上述只是一个简化的流程,省去了很多的实现细节以及在真实操作系统中的多进程环境,不过通过这些可以建立一个对于系统调用大致的概念,后续我们会深入系统调用的细节,一步步地将上述提到的系统调用流程进行剖析.
中断向量表
linux 的中断向量表的定义在 arch/arm/kernel/entry-armv.S 中:
.section .vectors, "ax", %progbits
.L__vectors_start:
W(b) vector_rst
W(b) vector_und
W(ldr) pc, .L__vectors_start + 0x1000
W(b) vector_pabt
W(b) vector_dabt
W(b) vector_addrexcptn
W(b) vector_irq
W(b) vector_fiq
整个向量表被单独放置在 .vectors 段中,包括 reset,undefined,abort,irq 等异常向量,svc 异常向量在第三条,这是一条跳转指令,其中 .L 表示 后续的 symbol 为 local symbol,这条指令的含义是将 __vectors_start+0x1000 地址处的指令加载到 pc 中执行, __vectors_start 的地址在哪里呢?
通过链接脚本 arch/arm/kernel/vmlinux.lds 查看对应的链接参数:
...
__vectors_start = .;
.vectors 0xffff0000 : AT(__vectors_start) {
*(.vectors)
}
. = __vectors_start + SIZEOF(.vectors);
__vectors_end = .;
__stubs_start = .;
.stubs ADDR(.vectors) + 0x1000 : AT(__stubs_start) {
*(.stubs)
}
...
可以看到, .vectors 段链接时确定的虚拟地址指定为 0xffff0000,加载地址指定为 __vectors_start 的地址, __vectors_start 被赋值为当前的地址定位符,并不确定,紧随着上一个段放置,可以确定的是 __vectors_start 是 .vectors 段的起始部分.
根据下一条 .stubs 段的描述,该段被放置在 .vectors + 0x1000 地址处,等于 __vectors_start + 0x1000,正是我们要找的 svc 向量的跳转地址,于是在内核向量代码部分搜索 .stub 段就可以找到 svc 跳转代码了:
.section .stubs, "ax", %progbits
.word vector_swi
.stubs 部分放置的是 vector_swi 这个符号的地址,所以绕来绕去,svc 向量处放置的指令相当于: mov pc,vector_swi
,即跳转到 vector_swi
处执行。
vector_swi 是一个标号,被定义在 arch/arm/kernel/entry-common.S 中
经过简化之后的代码如下:
/**************保存断点部分***************/
sub sp, sp, #PT_REGS_SIZE
stmia sp, {r0 - r12}
add r8, sp, #S_PC
stmdb r8, {sp, lr}^
mrs saved_psr, spsr
str saved_pc, [sp, #S_PC] @ Save calling PC
str saved_psr, [sp, #S_PSR] @ Save CPSR
str r0, [sp, #S_OLD_R0] @ Save OLD_R0
/****************系统设置****************/
zero_fp
alignment_trap r10, ip, __cr_alignment
asm_trace_hardirqs_on save=0
enable_irq_notrace
ct_user_exit save=0
uaccess_disable tbl
/**************执行系统调用****************/
adr tbl, sys_call_table @ load syscall table pointer
get_thread_info tsk
local_restart:
ldr r10, [tsk, #TI_FLAGS] @ check for syscall tracing
stmdb sp!, {r4, r5} @ push fifth and sixth args
tst r10, #_TIF_SYSCALL_WORK @ are we tracing syscalls?
bne __sys_trace
invoke_syscall tbl, scno, r10, __ret_fast_syscall
add r1, sp, #S_OFF
cmp scno, #(__ARM_NR_BASE - __NR_SYSCALL_BASE)
eor r0, scno, #__NR_SYSCALL_BASE @ put OS number back
bcs arm_syscall
mov why, #0 @ no longer a real syscall
b sys_ni_syscall @ not private func
保存断点部分
在从用户跳转到内核之初,硬件实现了用户级别的 APSR
保存到 svc 模式下的 SPSR
(注意,APSR 是受访问限制版本的 CPSR,是同一个寄存器,而 SPSR 是 bank 类型的),返回值保存到 svc 模式下的 lr 操作,然后执行跳转到中断向量表 svc 向量处,对于 user 模式下的寄存器断点保存与恢复,还是需要软件来实现,这部分代码及解析如下:
/* PT_REGS_SIZE 的大小为 = 72,该指令在栈上分配 72 字节的空间用于保存参数 */
sub sp, sp, #PT_REGS_SIZE
/* 将 r0 ~ r12 保存到栈上,对于 user 模式和 svc 模式,r0 ~ r12 是共用的 */
stmia sp, {r0 - r12}
/* 定位到栈上应该保存 PC 寄存器的地址,存放到 r8 中,S_PC 的值为 60,*/
/* 因为栈是向下增长,所以 add 指令相当于栈的回溯 */
add r8, sp, #S_PC
/* 将用户空间的 sp 和 lr 保存到 r8 地址处,详解见下文。*/
stmdb r8, {sp, lr}^
/* saved_psr 其实就是 r8 的一个别名,该指令表示将 spsr 保存到 r8 中,*/
/* spsr 中保存了 user 下的 APSR */
mrs saved_psr, spsr
/* 一般模式下,saved_pc 是 lr 的别名,将返回地址保存在栈上对应位置 */
str saved_pc, [sp, #S_PC]
/* 将 spsr 保存在栈上对应位置 */
str saved_psr, [sp, #S_PSR]
/* 将 r0 保存到 OLD_R0 处,OLD_R0 解释见下文 */
str r0, [sp, #S_OLD_R0
为什么在刚开始要在栈上分配 72 字节的参数,这是怎么计算得来的?
PT_REGS_SIZE 宏对应 sizeof(struct pt_regs),而 struct pt_regs 的定义为 unsigned long uregs[18],这些空间全部用于保存参数,对应 18 个寄存器值。这 18 个寄存器包括 16 个核心寄存器 r0~r15,一个 CPSR(APSR) 状态寄存器,以及一个 old_r0 寄存器。
有一个 r0,为什么还要分配一个 old_r0 呢?这是因为,在异常发生时,自然要将用户空间的 r0 压栈以保存断点值,但是系统调用本身也会有返回值需要传递到用户空间,而这个返回值正是保存在 r0 中的,因此发生系统调用前的 r0 就会被返回值覆盖,在一般情况下,这其实也不会有什么问题,但是在两种场合下有意义:
ptrace,这和 debug 相关
system call restart
用户空间使用 svc 指令产生系统调用时 r0 用于传递参数,并复制一份到 OLD_r0,当系统调用返回的时候,r0 是系统调用的返回值。 (注:对于 OLD_R0 的解释部分参考了 wowo 科技的博客,原博客链接在最后。)
对于保存用户空间的 sp 和 lr指令:
stmdb r8, {sp, lr}^
这里有两个细节需要注意,stmdb 中的 db 表示 decrement before,也就是在操作之前先递减 r8,于是 r8 的地址指向了应该存放 lr 的空间,而 stm* 指令操作顺序为从右往左,因此把 lr 和 sp 保存到了正确的地址上。
主要到指令最后的 ^,这个特殊符号表明:所操作的寄存器不是当前模式下的,而是 user 模式下的寄存器,这是一条特殊指令用于跨模式访问寄存器。
到这里,整个断点保存的工作就圆满完成了,给自己留好了后路,就可以欢快地去做正事了。
系统设置
/* 等于 mov fp,#0,在 arm 编译器中 frame point 为 r11*/
zero_fp
/* 通过读写 SCTLR 寄存器与 __cr_alignment 标号处设置的对齐参数对比来决定是否 */
/* 设 置 对齐检查,该寄存器由 cp15 协处理器操作,需要使用 mrs 和 msr 指令。*/
alignment_trap r10, ip, __cr_alignment
/* trace irq 部分,CONFIG_TRACE_IRQFLAGS 未定义,这个宏不执行操作。 */
asm_trace_hardirqs_on save=0
/* 执行 cpsie i 指令,打开中断 */
enable_irq_notrace
/* 因为未定义 CONFIG_CONTEXT_TRACKING 宏,该宏不执行操作。 */
ct_user_exit save=0
/* tbl 是 r8 寄存器的别名,uaccess_disable 宏的功能在于设定处理器模式下对 */
/* 于内存块的访问权限,详解见下文 */
uaccess_disable tbl
对于 uaccess_disable 这条指令,是和 VMSA(Virtual Memory System Architecture 虚拟内存架构) 相关的内容,主要是和内存的权限控制相关,相对应的寄存器为 DACR(Domain Access Control Register),这个寄存器由协处理器进行操作,对应的协处理器读指令为 mcr p15 arm_r c3, c0, 0,其中,arm_r 是 arm 核心寄存器(r0,r1等),该指令表示将 DACR 中的值读取到 arm_r 寄存器中。
DACR 定义了 16 块内存区域的访问权限,每块的访问权限由两个位来控制,uaccess_disable 这条指令就是禁止某些内存区域的访问权限,由于这一部分不是重点,就不再详细讨论了,具体的细节可以参考 armv7-A-R 手册 B4.1 section。
执行系统调用
做完相应的系统设置,就来到了我们的正题,系统调用的执行:
/* tbl 是 r8 的别名,sys_call_table 在上文中有介绍,这是系统调用表的基地址,*/
/* 将系统调用表基地址放在 r8 中 */
adr tbl, sys_call_table
/* tsk 是 r9 的别名,该宏将 thread_info 的基地址放在 r9 中,详解见下文*/
get_thread_info tsk
local_restart:
/* tsk 中保存 thread_info 基地址,基地址+偏移值就是访问结构体内成员,*/
/* TI_FLAGS 偏移值对应 thread_info->flags 成员,保存在 r10 中*/
ldr r10, [tsk, #TI_FLAGS]
/*将 r4 和 r5 的值保存在栈上,这两个寄存器中保存着系统调用第五个和第六个*/
/* 参数(如果存在) */
stmdb sp!, {r4, r5} @ push fifth and sixth args
/* tst 指令执行位与运算,并更新状态寄存器,这里用于判断是否在进行*/
/* 系统调用tracing(跟踪),如果处于系统调用跟踪,thread_info->flags 中*/
/* 与 _TIF_SYSCALL_WORK 对应的位将会被置位, */
tst r10, #_TIF_SYSCALL_WORK
/* thread_info->flags| _TIF_SYSCALL_WORK 的结果不为0,表示处于*/
/* 系统调用 tracing,跳转到 tracing 部分执行,这将走向系统调用的另*/
/* 一个 slow path 分支,关于 tracing 部分不做详细讨论。*/
bne __sys_trace
/* 从名称可以看出,这条宏用于执行系统调用,第一个参数是 tbl,表示系统调用表*/
/* 基地址,第二个参数为 scno(r7),第三个参数为 r10,第四个参数为 */
/* __ret_fast_syscall(返回程序),注意这里的参数是 invoke_syscall */
/* 宏的参数,并不是系统调用的参数。 详解见下文 */
invoke_syscall tbl, scno, r10, __ret_fast_syscall
thread_info 中记录了进程中相关的进程信息,包括抢占标志位、对应 CPU 信息、以及一个进程最重要的 task_struct 结构地址等。
每个进程都对应一个用户栈和内核栈,在当前 linux 实现中,内核栈的大小为 8K,占用两个页表,而 thread_info 被存放在栈的顶部,也就是内核栈中的最低地址,内核栈的使用从栈底开始,一直向下增长,当增长过程触及到 thread_info 的区域时,内核栈就检测到溢出,要获取 thread_info 也非常简单,只需要屏蔽当前内核栈 sp 的低 12 位,就得到了 thread_info 的开始地址,达到快速访问的目的,而上面的宏指令 get_thread_info tsk 正是这么做的。
invoke_syscall 宏的源码如下,为了查看方便,将调用参数部分贴在前面方面对照:
invoke_syscall tbl, scno, r10, __ret_fast_syscall
/* tabal 对应 tbl,对应系统调用表基地址
** nr 对应 scno(r7),对应系统调用号
** tmp 对应 r10,用于临时的存储
** ret 对应 __ret_fast_syscall,这是系统调用的返回程序,
** 与 __ret_fast_syscall 相对应的还有 ret_slow_syscall,
** 不过 slow 部分对应 tracing 分支 。
*/
.macro invoke_syscall, table, nr, tmp, ret, reload=0
/* 将系统调用号临时保存在 r10 中 */
mov \tmp, \nr
/* 检查系统调用号是否有效 */
cmp \tmp, #NR_syscalls @ check upper syscall limit
/* 如果系统调用号超过定义的最大值,就改为 0 */
movcs \tmp, #0
/* barrie 指令,防止 CPU 的乱序执行 */
csdb
/* badr 是一个宏,在这里作用相当于 adr lr,\ret,也就是把 ret 即
** __ret_fast_syscall 的地址保存在 lr 中
*/
badr lr, \ret
/* reload 默认为 0 ,不执行 */
.if \reload
add r1, sp, #S_R0 + S_OFF @ pointer to regs
ldmccia r1, {r0 - r6} @ reload r0-r6
stmccia sp, {r4, r5} @ update stack arguments
.endif
/* tmp 中保存系统调用号,lsl #2 表示将系统调用号乘以4,这是因为每个
** 系统调用占用 4 字节,以此作为基于 table(系统调用表) 的偏移地址值,
** 就是相对应的系统调用基地址,加载到 PC 中,即实现跳转,系统调用函数
** 执行完成后,将会返回到 lr 中保存的地址处,即上文中赋值给 lr 的
** __ret_fast_syscall ,返回值保存在 r0 中。
*/
ldrcc pc, [\table, \tmp, lsl #2]
系统调用已经执行完成,从上面的源码可以知道,程序返回到了 __ret_fast_syscall 中,接下来查看 __ret_fast_syscall 的源码实现:
__ret_fast_syscall:
/* 将返回值保存在 R0 对应的栈处 */
str r0, [sp, #S_R0 + S_OFF]!
/* 禁止中断 */
disable_irq_notrace
/* 将 thread_info->addr_limit 读到 r2 ,addr_limit 用于界定内
** 核空间和用户空间的访问权限
*/
ldr r2, [tsk, #TI_ADDR_LIMIT]
/* 检查 addr_limit 是否符合规定,不符合则跳转到
** addr_limit_check_failed,这部分属于安全检查
*/
cmp r2, #TASK_SIZE
blne addr_limit_check_failed
/* 再次检查 thread_info->flags 位与
** _TIF_SYSCALL_WORK | _TIF_WORK_MASK
*/
ldr r1, [tsk, #TI_FLAGS] @ re-check for syscall tracing
tst r1, #_TIF_SYSCALL_WORK | _TIF_WORK_MASK
/* 当 thread_info->flag | _TIF_SYSCALL_WORK | _TIF_WORK_MASK
** 不为零时,执行 fast_work_pending
*/
/* _TIF_SYSCALL_WORK | _TIF_WORK_MASK 这两个宏定义在
** arch/arm/include/asm/thread_info.h 中,包括 tracing 、信号、
** NEED_RESCHED 的检查,如果存在未处理的信号或者进程可被抢占时,执行
** fast_work_pending ,否则跳过继续往下执行
*/
bne fast_work_pending
/* 没有未处理的信号,没有设置抢占标志位 */
/* 架构相关的返回代码,arm 中没有相关代码 */
arch_ret_to_user r1, lr
/* 返回代码 */
restore_user_regs fast = 1, offset = S_OFF
从 __ret_fast_syscall 宏部分分出两个分支,一个是有信号处理或者抢占标志位被置位,需要先行处理,另一个是直接返回,其中直接返回由 restore_user_regs 控制,我们就来看看 fast_work_pending 的分支:
fast_work_pending:
/* 更新 sp 为 sp+S_OFF,这个 S_OFF 表示栈上保存断点信息的地址相对于
** 当前栈顶的偏移,在保存断点之后的操作中将 r4 和 r5 push 到栈上,
** 所以断点寄存器信息为当前 sp + S_OFF,这条指令的操作将 sp 返回到
** 断点寄存器信息基地址处
*/
str r0, [sp, #S_R0+S_OFF]!
/* 检查是不是 tracing */
tst r1, #_TIF_SYSCALL_WORK
bne __sys_trace_return_nosave
/* 继续执行 slow_work_pending */
slow_work_pending:
/* sp 赋值到 r0 中,此时 sp 执行栈上保存的断点信息 */
mov r0, sp
/* why 是 r8 的别名,将 r8 中的值保存到 r2 中,r8 中保存的是系统调用表,
** 传入这个参数的作用只是告诉 sigal 处理函数这个信号是从系统调用过程中处理的
*/
mov r2, why
/* r1 的值在前面确定,保存的是 thread->flags */
/* r0,r1,r2 作为三个参数传入 do_work_pending 函数并执行,
** 这个函数被定义在 arch/arm/kernel/signal.c 中,主要检查是否有信号处理,
** 如果有,就处理信号,同时检查抢占标志是否置位,如果置位,则执行调度
*/
bl do_work_pending
/* 判断返回值,返回值为0 ,执行 no_work_pending */
cmp r0, #0
beq no_work_pending
no_work_pending 中的执行主体就是:
restore_user_regs fast = 0, offset = 0
在上面另一个分支中(没有信号和抢占标志位),最后调用的也是 restore_user_regs,只是参数不一样:
restore_user_regs fast = 1, offset = S_OFF
这是因为在执行 fast_work_pending 的时候已经把 sp 恢复到断点寄存器信息处,如果没有进入 fast_work_pending,需要手动添加一个偏移值即 S_OFF,来定位断点寄存器信息,同时 fast_work_pending 执行过程中原系统调用返回值 r0 已经被保存到栈上,r0 的值已经被污染,而另一个分支中 r0 没有被破坏,所以 restore_user_regs 宏的两个参数有所区别。
restore_user_regs 宏的执行就是真正地返回断点部分,参考下面的源代码:
.macro restore_user_regs, fast = 0, offset = 0
/* 设置内存访问权限 */
uaccess_enable r1, isb=0
/* 将当前 sp 保存到 r2 中 */
mov r2, sp
/* 将保存在栈上的 CPSR 寄存器值取出,保存到 r1 中 */
ldr r1, [r2, #\offset + S_PSR]
/* 将保存在栈上的 PC 寄存器值取出,保存到 lr 中 */
ldr lr, [r2, #\offset + S_PC]!
/* 判断原进程中 CPSR 的 irq 位是否被置位,如果置位,跳转到 1 处执行,
** 表示出错
*/
tst r1, #PSR_I_BIT | 0x0f
bne 1f
/* 将用户进程的 CPSR 复制到 SPSR_SVC 中 */
msr spsr_cxsf, r1 @ save in spsr_svc
/* 将 r2(sp) 中保存的用户进程的 r1~lr push 回用户进程下
** 的寄存器中(^ 表示操作的是用户进程),r0 ~ r12 是共用的寄存器,
** r0 中保存了系统调用返回值,不需要返回到断点 r0
*/
.if \fast
ldmdb r2, {r1 - lr}^
/* 如果执行的是 fast_work_pending 分支,r0 是保存在栈上的,
** 也需要一并重新加载
*/
.else
ldmdb r2, {r0 - lr}^
.endif
/* 空指令,特定架构(ARMv5T)需要 */
mov r0, r0
/* 将内核中的 sp 寄存器返回到系统调用前的地址,就像什么都没发生过一样 */
add sp, sp, #\offset + PT_REGS_SIZE
/* lr 中保存的是用户进程的原 pc 值,执行这条指令就返回到用户空间执行了,
**同时 movs 的后缀 s 对应的操作为将 SPSR_SVC 拷贝到 USER 模式下的 CPSR 中
*/
movs pc, lr
1: bug "Returning to usermode but unexpected PSR bits set?", \@
恢复断点和保存断点的操作是相反的,将栈上保存的 r0~r14 寄存器值一个个拷贝回用户空间的 r0~r14,然后恢复用户进程中的 CPSR 寄存器,再更新 PC,跳转到用户空间,即完成了程序的返回。
本篇文章主要引用 arm-linux 系统调用流程,如有侵权请联系删除。
推荐阅读:
https://www.zhihu.com/question/57013926
https://zhuanlan.zhihu.com/p/296750228
https://zhuanlan.zhihu.com/p/363290974