嵌入式Linux应用开发-基础知识-第十九章驱动程序基石④

嵌入式Linux应用开发-基础知识-第十九章驱动程序基石④

  • 第十九章 驱动程序基石④
    • 19.7 工作队列
      • 19.7.1 内核函数
        • 19.7.1.1 定义 work
        • 19.7.1.2 使用 work:schedule_work
        • 19.7.1.3 其他函数
      • 19.7.2 编程、上机
      • 19.7.3 内部机制
        • 19.7.3.1 Linux 2.x的工作队列创建过程
        • 19.7.3.2
    • 19.8 中断的线程化处理
      • 19.8.1 内核机制
        • 19.8.1.1 调用 request_threaded_irq后内核的数据结构
        • 19.8.1.2
        • 19.8.1.3 中断的执行过程
      • 19.8.2 编程、上机

第十九章 驱动程序基石④

嵌入式Linux应用开发-基础知识-第十九章驱动程序基石④_第1张图片

19.7 工作队列

使用 GIT命令载后,本节源码位于这个目录下:

01_all_series_quickstart\ 
05_嵌入式 Linux驱动开发基础知识\source\ 
06_gpio_irq\ 
    09_read_key_irq_poll_fasync_block_timer_tasklet_workqueue 

前面讲的定时器、下半部 tasklet,它们都是在中断上下文中执行,它们无法休眠。当要处理更复杂的事情时,往往更耗时。这些更耗时的工作放在定时器或是下半部中,会使得系统很卡;并且循环等待某件事情完成也太浪费 CPU资源了。
如果使用线程来处理这些耗时的工作,那就可以解决系统卡顿的问题:因为线程可以休眠。
在内核中,我们并不需要自己去创建线程,可以使用“工作队列”(workqueue)。内核初始化工作队列是,就为它创建了内核线程。以后我们要使用“工作队列”,只需要把“工作”放入“工作队列中”,对应的内核线程就会取出“工作”,执行里面的函数。
在 2.xx的内核中,工作队列的内部机制比较简单;在现在 4.x的内核中,工作队列的内部机制做得复杂无比,但是用法是一样的。
工作队列的应用场合:要做的事情比较耗时,甚至可能需要休眠,那么可以使用工作队列。
缺点:多个工作(函数)是在某个内核线程中依序执行的,前面函数执行很慢,就会影响到后面的函数。 在多 CPU的系统下,一个工作队列可以有多个内核线程,可以在一定程度上缓解这个问题。
我们先使用看看怎么使用工作队列。

19.7.1 内核函数

内核线程、工作队列(workqueue)都由内核创建了,我们只是使用。使用的核心是一个 work_struct结构体,定义如下:
嵌入式Linux应用开发-基础知识-第十九章驱动程序基石④_第2张图片

使用工作队列时,步骤如下:
① 构造一个 work_struct结构体,里面有函数;
② 把这个 work_struct结构体放入工作队列,内核线程就会运行 work中的函数。

19.7.1.1 定义 work

参考内核头文件:include\linux\workqueue.h

#define DECLARE_WORK(n, f)      \ 
 struct work_struct n = __WORK_INITIALIZER(n, f) 
#define DECLARE_DELAYED_WORK(n, f)  
   \ 
 struct delayed_work n = __DELAYED_WORK_INITIALIZER(n, f, 0) 

第 1个宏是用来定义一个 work_struct结构体,要指定它的函数。

第 2个宏用来定义一个 delayed_work结构体,也要指定它的函数。所以“delayed”,意思就是说要让它运行时,可以指定:某段时间之后你再执行。
如果要在代码中初始化 work_struct结构体,可以使用下面的宏:

#define INIT_WORK(_work, _func)  
19.7.1.2 使用 work:schedule_work

调用 schedule_work时,就会把 work_struct结构体放入队列中,并唤醒对应的内核线程。内核线程就会从队列里把 work_struct结构体取出来,执行里面的函数。

19.7.1.3 其他函数

嵌入式Linux应用开发-基础知识-第十九章驱动程序基石④_第3张图片

19.7.2 编程、上机

19.7.3 内部机制

初学者知道 work_struct中的函数是运行于内核线程的上下文,这就足够了。
在 2.xx版本的 Linux内核中,创建 workqueue时就会同时创建内核线程;
在 4.xx版本的 Linux内核中,内核线程和 workqueue是分开创建的,比较复杂。

19.7.3.1 Linux 2.x的工作队列创建过程

代码在 kernel\workqueue.c中:

init_workqueues 
keventd_wq = create_workqueue("events"); 
    __create_workqueue((name), 0, 0) 
        for_each_possible_cpu(cpu) { 
            err = create_workqueue_thread(cwq, cpu); 
                    p = kthread_create(worker_thread, cwq, fmt, wq->name, cpu);  

对于每一个 CPU,都创建一个名为“events/X”的内核线程,X从 0开始。
在创建 workqueue的同时创建内核线程。
嵌入式Linux应用开发-基础知识-第十九章驱动程序基石④_第4张图片

19.7.3.2

Linux 4.x的工作队列创建过程
Linux4.x中,内核线程和工作队列是分开创建的。
先创建内核线程,代码在 kernel\workqueue.c中: init_workqueues

/* initialize CPU pools */ 
for_each_possible_cpu(cpu) { 
    for_each_cpu_worker_pool(pool, cpu) { 
         /* 对每一个 CPU都创建 2个 worker_pool结构体,它是含有 ID的 */ 
         /*  一个 worker_pool对应普通优先级的 work,第 2个对应高优先级的 work */ } 
/* create the initial worker */ 
for_each_online_cpu(cpu) { 
    for_each_cpu_worker_pool(pool, cpu) { 
        /* 对每一个 CPU的每一个 worker_pool,创建一个 worker */  
/* 每一个 worker对应一个内核线程 */ 
        BUG_ON(!create_worker(pool));     } 
} 

create_worker函数代码如下:
嵌入式Linux应用开发-基础知识-第十九章驱动程序基石④_第5张图片

创建好内核线程后,再创建 workqueue,代码在 kernel\workqueue.c中:

init_workqueues 
system_wq = alloc_workqueue("events", 0, 0); 
    __alloc_workqueue_key 
        wq = kzalloc(sizeof(*wq) + tbl_size, GFP_KERNEL);  // 分配 workqueue_struct         alloc_and_link_pwqs(wq) // 跟 worker_poll建立联系 

嵌入式Linux应用开发-基础知识-第十九章驱动程序基石④_第6张图片
一开始时,每一个 worker_poll下只有一个线程,但是系统会根据任务繁重程度动态创建、销毁内核线程。所以你可以在 work中打印线程 ID,发现它可能是变化的。

19.8 中断的线程化处理

使用 GIT命令载后,本节源码位于这个目录下:

01_all_series_quickstart\ 
05_嵌入式 Linux驱动开发基础知识\source\ 
06_gpio_irq\ 
    10_read_key_irq_poll_fasync_block_timer_tasklet_workqueue_threadedirq 

请先回顾《18.2.7 新技术:threaded irq》。
复杂、耗时的事情,尽量使用内核线程来处理。上节视频介绍的工作队列用起来挺简单,但是它有一个缺点:工作队列中有多个 work,前一个 work没处理完会影响后面的 work。解决方法有很多种,比如干脆自己创建一个内核线程,不跟别的 work凑在一块了。在 Linux系统中,对于存储设备比如 SD/TF卡,它的驱动程序就是这样做的,它有自己的内核线程。
对于中断处理,还有另一种方法:threaded irq,线程化的中断处理。中断的处理仍然可以认为分为上半部、下半部。上半部用来处理紧急的事情,下半部用一个内核线程来处理,这个内核线程专用于这个中断。 内核提供了这个函数:
在这里插入图片描述

你可以只提供 thread_fn,系统会为这个函数创建一个内核线程。发生中断时,系统会立刻调用 handler函数,然后唤醒某个内核线程,内核线程再来执行 thread_fn函数。

19.8.1 内核机制

19.8.1.1 调用 request_threaded_irq后内核的数据结构

嵌入式Linux应用开发-基础知识-第十九章驱动程序基石④_第7张图片

19.8.1.2

request_threaded_irq
request_threaded_irq函数,肯定会创建一个内核线程。
源码在内核文件 kernel\irq\manage.c中,

int request_threaded_irq(unsigned int irq, irq_handler_t handler,     irq_handler_t thread_fn, unsigned long irqflags, 
    const char *devname, void *dev_id) 
{ 
    // 分配、设置一个 irqaction结构体 
 action = kzalloc(sizeof(struct irqaction), GFP_KERNEL); 
 if (!action) 
  return -ENOMEM; 
action->handler = handler; 
action->thread_fn = thread_fn; action->flags = irqflags; 
action->name = devname; 
action->dev_id = dev_id; 
    retval = __setup_irq(irq, desc, action);  // 进一步处理 } 
 __setup_irq函数代码如下(只摘取重要部分)if (new->thread_fn && !nested) { 
 ret = setup_irq_thread(new, irq, false); 
setup_irq_thread函数代码如下(只摘取重要部分)if (!secondary) { 
 t = kthread_create(irq_thread, new, "irq/%d-%s", irq, 
      new->name); 
} else { 
 t = kthread_create(irq_thread, new, "irq/%d-s-%s", irq,       new->name); 
 param.sched_priority -= 1; 
} 
new->thread = t; 
19.8.1.3 中断的执行过程

对于 GPIO中断,我使用 QEMU的调试功能找出了所涉及的函数调用,其他板子可能稍有不同。 调用关系如下,反过来看:

Breakpoint 1, gpio_keys_gpio_isr (irq=200, dev_id=0x863e6930) at drivers/input/keyboard/gpio_keys.c:393 
393 { 
(gdb) bt 
#0  gpio_keys_gpio_isr (irq=200, dev_id=0x863e6930) at drivers/input/keyboard/gpio_keys.c:393 #1  0x80270528 in __handle_irq_event_percpu (desc=0x8616e300, flags=0x86517edc) at kernel/irq/handle.c:145 
#2  0x802705cc in handle_irq_event_percpu (desc=0x8616e300) at kernel/irq/handle.c:185 
#3  0x80270640 in handle_irq_event (desc=0x8616e300) at kernel/irq/handle.c:202 
#4  0x802738e8 in handle_level_irq (desc=0x8616e300) at kernel/irq/chip.c:518 
#5  0x8026f7f8 in generic_handle_irq_desc (desc=<optimized out>) at ./include/linux/irqdesc.h:150 
#6  generic_handle_irq (irq=<optimized out>) at kernel/irq/irqdesc.c:590 
#7  0x805005e0 in mxc_gpio_irq_handler (port=0xc8, irq_stat=2252237104) at drivers/gpio/gpio-mxc.c:274 
#8  0x805006fc in mx3_gpio_irq_handler (desc=<optimized out>) at drivers/gpio/gpio-mxc.c:291 #9  0x8026f7f8 in generic_handle_irq_desc (desc=<optimized out>) at ./include/linux/irqdesc.h:150 
#10 generic_handle_irq (irq=<optimized out>) at kernel/irq/irqdesc.c:590 
#11 0x8026fd0c in __handle_domain_irq (domain=0x86006000, hwirq=32, lookup=true, regs=0x86517fb0) at kernel/irq/irqdesc.c:627 
#12 0x80201484 in handle_domain_irq (regs=<optimized out>, hwirq=<optimized out>, domain=<optimized out>) at ./include/linux/irqdesc.h:168 
#13 gic_handle_irq (regs=0xc8) at drivers/irqchip/irq-gic.c:364 
#14 0x8020b704 in __irq_usr () at arch/arm/kernel/entry-armv.S:464 

我们只需要分析__handle_irq_event_percpu函数,它在 kernel\irq\handle.c中:

线程的处嵌入式Linux应用开发-基础知识-第十九章驱动程序基石④_第8张图片
理函数为 irq_thread,代码在 kernel\irq\handle.c中:

嵌入式Linux应用开发-基础知识-第十九章驱动程序基石④_第9张图片

19.8.2 编程、上机

调用request_threaded_irq函数注册中断,调用free_irq卸载中断。
从前面可知,我们可以提供上半部函数,也可以不提供:
① 如果不提供
内核会提供默认的上半部处理函数:irq_default_primary_handler,它是直接返回 IRQ_WAKE_THREAD。 ② 如果提供的话
返回值必须是:IRQ_WAKE_THREAD。
在 thread_fn中,如果中断被正确处理了,应该返回 IRQ_HANDLED。

你可能感兴趣的:(Linux,ARM,MCU,MCU,C51,linux,运维,服务器,c++,c语言)