操作系统背景知识
Unix/Linux系统
Unix/Linux提供了一个fork()函数
系统调用,这个fork()函数
比较特殊?
为什么特殊呢?
因为普通的函数调用一次,那么函数就返回一次,而这个fork()函数
调用一次呢,它会返回两次!
为什么会返回两次呢?
因为操作系统自动把当前进程(成为父进程),复制一份(这一份称为子进程),然后函数分别在父进程和子进程内返回。
而子进程,永远返回0,而父进程返回子进程的id。
为什么这么设计呢?答案是:这样做的话一个父进程就可以 fork 出很多子进程,所以父进程要记下每个子进程的 id ,而子进程只需要调用 getppid() 就可以拿到父进程的 id。
python 的 os 模块封装了常见的系统调用,其中就包括 fork,可以在 python 中轻松创建子进程:
示例代码:
import os
#os.getpid()获取当前进程id
print('Process (%s) start...' %os.getpid())
#下方代码只能在Unix/Linux/Mac系统使用,用来创建子进程(Mac是Unix系统中的一种)
pid=os.fork()
if pid==0:
#因为当当前的pid为0时,说明当前的进程属于子进程,所以需要通过getppid()获得父进程id
print('I am child process (%s) and my parent is %s' %(os.getpid(),os.getppid()))
else:
print('I (%s) just created a child process (%s)' %(os.getpid,pid))
我们来看下实际效果(我的机器为Mac,所以此代码适用)
根据输出结果,我们应该能够理解 fork() 函数的作用了,fork()函数虽然只调用了一次,但是他反回了两次,所以有两个输出结果。
有了fork调用,一个进程在接到新任务时就可以复制出一个子进程来处理新任务,常见的Apache服务器就是由父进程监听端口,每当有新的http请求时,就fork出子进程来处理新的http请求。
ok,你可能会想,上面的这么多话都是说给使用 mac 或者使用 linux 系统的人听的,如果现在在用 window 那该怎么办呢?
放心,python 为 windows 电脑提供了 multiprocessing模块
下面很重要哦
而这个multiprocessing模块就是跨平台版本的多进程模块
multiprocessing模块
multiprocessing 模块提供了一个 process 类来代笔一个进程对象
下面这个例子演示一下:启动一个子进程并且等待子进程结束
from multiprocessing import Process
import os
#子进程要执行的逻辑
def run_proc(name):
print('Run child process %s(%s)' %(name,os.getpid())
if __name__='__main__':
print('Parent process %s' %os.getpid())
p=Process(target=run_proc,args=('test',))
print('Child process will start...')
p.start()
p.join()
print('Child process end.')
执行结果如下:
Parent process 928.
Process will start.
Run child process test (929)...
Process end.
这样在创建子进程时,只需要传入一个执行函数和函数的参数,创建一个Process实例,然后用start()方法去启动,这样创建进程比fork()还要简单。
而join()方法的用途则是:可以等待子进程结束后,再继续往下运行,通常用于进程间的同步。
Pool
如果要大量创建子进程,可以使用进程池 Pool 批量创建子进程
from multiprocessing import Pool
import time,os,random
def long_time_task(name):
print('Run task %s(%s)' %(name,os.getpid()))
start=time.time()
time.sleep(random.random()*3)
end=time.time()
print('Task %s runs %0.2f senconds.'%(name,(end-start)))
if __name__='__main__':
print('Parent process %s.'%os.getpid())
p=Pool(4)
for i in range(5):
p.apply_async(long_time_task,args=(i,))
print('Waitting for all subProcesses done...')
p.close()
p.join()
print('All subProcesses done.')
我们来看下真实案例:
我们来分析下:
- 对 Pool 对象调用 join() 方法,会等待所有子进程执行完毕;
- 调用 join() 之前必须先调用 close(),调用 close() 之后不能继续添加新的 Process 了;
- 请注意输出的结果:task
0
,1
,2
,3
是立即执行的,而task4
要等待前面某个task执行完毕之后才会执行。这是因为Pool的默认大小定义成了4,因此,最多同时执行4各进程,这是Pool有意设计的限制,并不是操作系统的限制。
如果 改成
p=Pool(5)
就可以同时跑5个进程。
由于Pool的默认大小是 cpu 的核数,如果你拥有8核cpu,要提交至少9个子进程,才能看到上边了类似的等待结果。
子进程-subprocess
很多时候,子进程并不是自身,而是一个外部进程。我们创建了子进程后,还需要控制子进程的输入和输出。
subprocess 模块可以让我们非常方便的启动一个子进程,然后控制其输入和输出
下面例子演示了如何在python代码中运行命令:
nslookup www.python.org,这和命令行直接运行的效果是一样的
我们先来看下,直接在命令行执行 nslookup www.python.org的输出
ok,我们下面来看下代码:
import subprocess
print('& nslookup www.python.org')
r=subprocess.call(['nslookup','www.python.org'])
print('Exit code:',r)
我们来看下运行结果:
如果子进程还需要输入,则可以通过communicate()方法输入:
import subprocess
print('& nslookup')
p=subprocess.Popen(['nslookup'],stdin=subprocess.PIPE,stdout=subprocess.PIPE,stderr=subprocess.PIPE)
output,err=p.communicate(b'set q=mx\npython.org\nexit\n')
print(output.decode('utf-8'))
print('Exit code:',p.returncode)
上面例子的代码相当于在命令行执行命令 nslookup
,然后手动输入:
set q=mx
python.org
exit
跟上面一样,我们还是看一下真正从命令行输入,会是怎样的输出结果
现在我们来看一下实际案例:
进程间通信
Process 之间肯定是要通信的,操作系统提供了很多机制来实现进程间通信。
Python 的 multiprocessing 模块包装了底层的机制,提供了 Queue、Pipes 等多种方式来交换数据。
我们以 Queue 为例,在父进程中创建两个子进程,一个往Queue
里写数据,一个从Queue
里读数据:
from multiprocessing import Process,Queue
import os,time,random
#写数据进程执行的代码
def write(q):
print('Process to write:%s' %os.getpid())
for value in ['A','B','C']:
print('put %s to queue...' %value)
q.put(value)
time.sleep(random.random())
#读数据进程执行的代码
def read(q):
print('Process to read:%s' %os.getpid())
while True:
value=q.get(True)
print('Get %s from queue'%value)
if __name__=='__main__':
#父进程创建Queue,并传给各个子进程
q=Queue()
pw=Process(target=write,args=(q,))
pr=Process(target=read,args=(q,))
#启动子进程pw,开始写入
pw.start()
#启动子进程pr,开始读取
pr.start()
#等待pw结束
pw.join()
#pr进程里是死循环,无法等待其结束,只能强行终止
pr.terminate()
我们来看下实际案例
注意
在Unix/Linux下,multiprocessing 模块封装了 fork()调用,使我们不需要关注 fork() 细节。
由于 windows 没有 fork() 调用,因此 multiprocessing 需要"模拟"出 fork()的效果,父进程所有python对象都必须通过 pickle 序列化再传到子进程中去。所以,如果 multiprocessing 在Windows 下调用失败了,要先考虑是是不是pickle失败了
总结
- 在Unix/Linux下,可以使用 fork() 调用实现多进程
- 要实现跨平台的多进程,可以使用mutiprocessing 模块
- 进程间通信是通过 Queue、Pipes 等实现的