多进程,多线程介绍请阅读blog
python多线程编程请阅读blog
执行外部命令
。 他是os.fork() 和 os.execve() 的封装。 他启动的进程不会把父进程的模块加载一遍
。使用subprocess的通信机制比较少,通过管道或者信号机制.他启动的进程会重新加载父进程的代码
。可以通过Queue、Array、Value等对象来通信。简而言之:
调用外部的二进制程序,而非代码模块
,调用外部程序/命令 的用这个。同一个代码中通过多进程调用其他的模块
(也是自己写的),代码内函数的多进程并行都是用这个。仔细说来,multiprocess不是一个模块而是python中一个操作、管理进程的包
。 之所以叫multi是取自multiple的多功能的意思,在这个包中几乎包含了和进程有关的所有子模块。由于提供的子模块非常多,为了方便大家归类记忆,我将这部分大致分为四个部分:创建进程部分
,进程同步部分
,进程池部分
,进程之间数据共享
。
Python要进行多进程操作,需要用到muiltprocessing库,其中的Process类跟threading模块的Thread类很相似。使用方式和所含方法都很相似。
Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)
强调:
1. 需要使用关键字的方式来指定参数
2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号
参数介绍:
1 group参数未使用,值始终为None
2 target表示调用对象,即子进程要执行的任务
3 args表示调用对象的位置参数元组,args=(1,2,'egon',)
4 kwargs表示调用对象的字典,kwargs={
'name':'egon','age':18}
5 name为子进程的名称
方法介绍:
1 p.start():启动进程,并调用该子进程中的p.run()
2 p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法
3 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
4 p.is_alive():如果p仍然运行,返回True
5 p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程
属性介绍:
1 p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
2 p.name:进程的名称
3 p.pid:进程的pid
4 p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
5 p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)
注意:
在Windows操作系统中由于没有fork(linux操作系统中创建进程的机制),在创建子进程的时候会自动 import 启动它的这个文件,而在 import 的时候又执行了整个文件。
因此如果将process()直接写在文件中就会无限递归创建子进程报错。
所以必须把创建子进程的部分使用if name ==‘main’ 判断保护起来,import 的时候 ,就不会递归运行了。
注意:子进程的执行顺序不是根据启动顺序决定的
from multiprocessing import Process
def show(name):
print("Process name is " + name)
if __name__ == "__main__":
proc = Process(target=show, args=('subprocess',))
proc.start()
proc.join()
查看进程id
from multiprocessing import Process
import time
import os
def task(name):
print('{} is running!'.format(name))
print('子进程id :', os.getpid(), '父进程id :', os.getppid())
time.sleep(3)
print('{} is done!'.format(name))
# Windows开子进程要写在__name__==__main__下
# 因为开子进程会重新加载父进程的内容
if __name__ == '__main__':
print('主进程id :', os.getpid())
# 创建一个Python中的进程对象
p = Process(target=task, args=('t1', ))
# p = Process(target=task, kwargs={'name': 't1'})
p.start() # 调用操作系统接口启动一个进程执行命令
print('--- 主进程 ----')
from multiprocessing import Process
import time
class MyProcess(Process):
def __init__(self, name):
super(MyProcess, self).__init__()
self.name = name
def run(self):
print('process name :' + str(self.name))
time.sleep(1)
if __name__ == '__main__':
for i in range(3):
p = MyProcess(i)
p.start()
for i in range(3):
p.join()
进程的运行时数据是互相独立的,不会相互影响
。即父进程中的X变量并不会被子进程中的代码修改掉。(后面进程间通信可以实现)
实现 父进程 必须等待子进程运行结束。
from multiprocessing import Process
x = 100
def change():
global x
x = 10
print('子进程修改了x,子进程结束了!')
if __name__ == '__main__':
p = Process(target=change)
p.start()
p.join() # 优雅地实现主进程等待子进程结束
print(x)
for循环起多进程
from multiprocessing import Process
import time
def task(n):
print('这是子进程:{}'.format(n))
time.sleep(n)
print('子进程:{}结束了!'.format(n))
if __name__ == '__main__':
start_time = time.time()
# p1 = Process(target=task, args=(1,))
# p2 = Process(target=task, args=(2,))
# p3 = Process(target=task, args=(3,))
# p1.start()
# p2.start()
# p3.start()
#
# p1.join()
# p2.join()
# p3.join()
# 或者简写成下面的方式
p_list = []
for i in range(1, 4):
p = Process(target=task, args=(i,))
p.start()
p_list.append(p)
for p in p_list:
p.join()
print('我是主进程')
print('共耗时:{}'.format(time.time()-start_time))
父进程中将一个子进程设置为守护进程,那么这个子进程会随着主进程的结束而结束。
主进程创建守护进程
其一:守护进程会在主进程代码执行结束后就终止
其二:守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes are not allowed to have children
注意:进程之间是互相独立的,主进程代码运行结束,守护进程随即终止
import os
import time
from multiprocessing import Process
class Myprocess(Process):
def __init__(self,person):
super().__init__()
self.person = person
def run(self):
print(os.getpid(),self.name)
print('%s正在和女主播聊天' %self.person)
p=Myprocess('哪吒')
p.daemon=True #一定要在p.start()前设置,设置p为守护进程,禁止p创建子进程,并且父进程代码执行结束,p即终止运行
p.start()
time.sleep(10) # 在sleep时查看进程id对应的进程ps -ef|grep id
print('主')
from socket import *
from multiprocessing import Process
server=socket(AF_INET,SOCK_STREAM)
server.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
server.bind(('127.0.0.1',8080))
server.listen(5)
def talk(conn,client_addr):
while True:
try:
msg=conn.recv(1024)
if not msg:break
conn.send(msg.upper())
except Exception:
break
if __name__ == '__main__': #windows下start进程一定要写到这下面
while True:
conn,client_addr=server.accept()
p=Process(target=talk,args=(conn,client_addr))
p.start()
from socket import *
client=socket(AF_INET,SOCK_STREAM)
client.connect(('127.0.0.1',8080))
while True:
msg=input('>>: ').strip()
if not msg:continue
client.send(msg.encode('utf-8'))
msg=client.recv(1024)
print(msg.decode('utf-8'))
我们千方百计实现了程序的异步,让多个任务可以同时在几个进程中并发处理,他们之间的运行没有顺序,一旦开启也不受我们控制。尽管并发编程让我们能更加充分的利用IO资源,但是也给我们带来了新的问题。
当多个进程使用同一份数据资源的时候,就会因为竞争而引发数据安全或顺序混乱问题。
使用互斥锁解决竞争
from multiprocessing import Process, Lock
import time
import random
# 生成一个互斥锁
mutex_lock = Lock()
def task1(lock):
# 锁门
lock.acquire()
print('这是 task1 任务'.center(30, '-'))
print('task1 进了洗手间')
time.sleep(random.randint(1, 3))
print('task1 办事呢...')
time.sleep(random.randint(1