python学习笔记-tip53(多进程--multiprocessing)

操作系统背景知识

Unix/Linux系统

Unix/Linux提供了一个fork()函数系统调用,这个fork()函数比较特殊?
为什么特殊呢?
因为普通的函数调用一次,那么函数就返回一次,而这个fork()函数调用一次呢,它会返回两次!
为什么会返回两次呢?
因为操作系统自动把当前进程(成为父进程),复制一份(这一份称为子进程),然后函数分别在父进程和子进程内返回。

而子进程,永远返回0,而父进程返回子进程的id。

为什么这么设计呢?答案是:这样做的话一个父进程就可以 fork 出很多子进程,所以父进程要记下每个子进程的 id ,而子进程只需要调用 getppid() 就可以拿到父进程的 id。

python 的 os 模块封装了常见的系统调用,其中就包括 fork,可以在 python 中轻松创建子进程:

示例代码:

    import os
    #os.getpid()获取当前进程id
    print('Process (%s) start...' %os.getpid())
    #下方代码只能在Unix/Linux/Mac系统使用,用来创建子进程(Mac是Unix系统中的一种)
    pid=os.fork()
    if pid==0:
        #因为当当前的pid为0时,说明当前的进程属于子进程,所以需要通过getppid()获得父进程id
       print('I am child process (%s) and my parent is %s' %(os.getpid(),os.getppid())) 
    else:
        print('I (%s) just created a child process (%s)' %(os.getpid,pid))

我们来看下实际效果(我的机器为Mac,所以此代码适用)


根据输出结果,我们应该能够理解 fork() 函数的作用了,fork()函数虽然只调用了一次,但是他反回了两次,所以有两个输出结果。

有了fork调用,一个进程在接到新任务时就可以复制出一个子进程来处理新任务,常见的Apache服务器就是由父进程监听端口,每当有新的http请求时,就fork出子进程来处理新的http请求。


ok,你可能会想,上面的这么多话都是说给使用 mac 或者使用 linux 系统的人听的,如果现在在用 window 那该怎么办呢?

放心,python 为 windows 电脑提供了 multiprocessing模块

下面很重要哦

而这个multiprocessing模块就是跨平台版本的多进程模块

multiprocessing模块

multiprocessing 模块提供了一个 process 类来代笔一个进程对象
下面这个例子演示一下:启动一个子进程并且等待子进程结束

  from multiprocessing import Process
  import os
  #子进程要执行的逻辑
  def  run_proc(name):
        print('Run child process %s(%s)' %(name,os.getpid())
  if __name__='__main__':
    print('Parent process %s' %os.getpid())
  p=Process(target=run_proc,args=('test',))
  print('Child process will start...')
  p.start()
  p.join()
  print('Child process end.')

执行结果如下:

Parent process 928.
Process will start.
Run child process test (929)...
Process end.

这样在创建子进程时,只需要传入一个执行函数和函数的参数,创建一个Process实例,然后用start()方法去启动,这样创建进程比fork()还要简单。

而join()方法的用途则是:可以等待子进程结束后,再继续往下运行,通常用于进程间的同步。

Pool

如果要大量创建子进程,可以使用进程池 Pool 批量创建子进程

  from multiprocessing import Pool
  import time,os,random
  def long_time_task(name):
        print('Run task %s(%s)' %(name,os.getpid()))
        start=time.time()
        time.sleep(random.random()*3)
        end=time.time()
        print('Task %s runs %0.2f senconds.'%(name,(end-start)))
   if  __name__='__main__':
      print('Parent process %s.'%os.getpid())
      p=Pool(4)
      for i in range(5):
            p.apply_async(long_time_task,args=(i,))
      print('Waitting for all subProcesses done...')
      p.close()
      p.join()
      print('All subProcesses done.')      

我们来看下真实案例:


我们来分析下:

  • 对 Pool 对象调用 join() 方法,会等待所有子进程执行完毕;
  • 调用 join() 之前必须先调用 close(),调用 close() 之后不能继续添加新的 Process 了;
  • 请注意输出的结果:task0,1,2,3是立即执行的,而task4要等待前面某个task执行完毕之后才会执行。这是因为Pool的默认大小定义成了4,因此,最多同时执行4各进程,这是Pool有意设计的限制,并不是操作系统的限制。

如果 改成

p=Pool(5)

就可以同时跑5个进程。

由于Pool的默认大小是 cpu 的核数,如果你拥有8核cpu,要提交至少9个子进程,才能看到上边了类似的等待结果。

子进程-subprocess

很多时候,子进程并不是自身,而是一个外部进程。我们创建了子进程后,还需要控制子进程的输入和输出。
subprocess 模块可以让我们非常方便的启动一个子进程,然后控制其输入和输出

下面例子演示了如何在python代码中运行命令:

      nslookup www.python.org,这和命令行直接运行的效果是一样的

我们先来看下,直接在命令行执行 nslookup www.python.org的输出

ok,我们下面来看下代码:

  import subprocess
  print('& nslookup www.python.org')
  r=subprocess.call(['nslookup','www.python.org'])
  print('Exit code:',r)

我们来看下运行结果:


如果子进程还需要输入,则可以通过communicate()方法输入:

  import subprocess
  print('& nslookup')
  p=subprocess.Popen(['nslookup'],stdin=subprocess.PIPE,stdout=subprocess.PIPE,stderr=subprocess.PIPE)
  output,err=p.communicate(b'set q=mx\npython.org\nexit\n')
  print(output.decode('utf-8'))
  print('Exit code:',p.returncode)

上面例子的代码相当于在命令行执行命令 nslookup,然后手动输入:

  set q=mx
  python.org
  exit

跟上面一样,我们还是看一下真正从命令行输入,会是怎样的输出结果



现在我们来看一下实际案例:


进程间通信

Process 之间肯定是要通信的,操作系统提供了很多机制来实现进程间通信。
Python 的 multiprocessing 模块包装了底层的机制,提供了 Queue、Pipes 等多种方式来交换数据。
我们以 Queue 为例,在父进程中创建两个子进程,一个往Queue里写数据,一个从Queue里读数据:

  from multiprocessing import Process,Queue
  import os,time,random
   #写数据进程执行的代码
  def write(q):
        print('Process to write:%s' %os.getpid())
        for value in ['A','B','C']:
             print('put %s to queue...' %value)
             q.put(value)
             time.sleep(random.random())
   #读数据进程执行的代码
   def read(q):
         print('Process to read:%s' %os.getpid())
         while True:
                  value=q.get(True)
                  print('Get %s from queue'%value)
    if __name__=='__main__':
        #父进程创建Queue,并传给各个子进程
        q=Queue()  
        pw=Process(target=write,args=(q,)) 
        pr=Process(target=read,args=(q,))
        #启动子进程pw,开始写入
        pw.start()
        #启动子进程pr,开始读取
        pr.start()
        #等待pw结束
        pw.join()
        #pr进程里是死循环,无法等待其结束,只能强行终止
        pr.terminate()

我们来看下实际案例


注意

在Unix/Linux下,multiprocessing 模块封装了 fork()调用,使我们不需要关注 fork() 细节。
由于 windows 没有 fork() 调用,因此 multiprocessing 需要"模拟"出 fork()的效果,父进程所有python对象都必须通过 pickle 序列化再传到子进程中去。所以,如果 multiprocessing 在Windows 下调用失败了,要先考虑是是不是pickle失败了

总结

  • 在Unix/Linux下,可以使用 fork() 调用实现多进程
  • 要实现跨平台的多进程,可以使用mutiprocessing 模块
  • 进程间通信是通过 Queue、Pipes 等实现的

你可能感兴趣的:(python学习笔记-tip53(多进程--multiprocessing))