一分钟学会python多进程并发(mutliprocessing)用法

前言        

        Tab:python中的多进程运行,速度能提高三倍左右,而且很简单,非常适合食用。

便于理解的方式: 

    multiprocessing用于opencv播放视频,同时实现播放(或者说处理)多个视频。 

一分钟学会python多进程并发(mutliprocessing)用法_第1张图片

 加速前后耗时对比: 

12.407seconds VS 4.519seconds

一分钟学会python多进程并发(mutliprocessing)用法_第2张图片


一分钟学会python多进程并发(mutliprocessing)用法

multiprocessing.Pool示例


multiprocessing.Pool示例

from multiprocessing import Process, Pool, Lock
import time

def show(param1, param2, param3):
    print('I am the process:{}'.format(param1))
    time.sleep(1)
    print('This my param2:{}'.format(param2))
    time.sleep(2)
    print('This is my parm3:{}'.format(param3))
    

def do(params):
    return show(params[0], params[1], params[2])
    
if __name__ == '__main__':
    # ---multiprocessing---
    START_TIME = time.time()
    pool_count = 3
    pool = Pool(pool_count)  # 创建拥有n个进程数量的进程池
    params = []
    for i in range(1,pool_count+1):
        params.append([i, i*10, i*100])
    pool.map(do, params)  # map(func, iterable[, chunksize=None])
    pool.close()  # 关闭进程池(pool),使其不再接受新的任务
    pool.join()  # 主进程阻塞等待子进程的退出, join方法要在close或terminate之后使用
    print("计算耗时>>>{:.3f}s".format(time.time() - START_TIME))

        想要快速实现自己代码的多进程运行,重点把握自己的pool.map(do, param),如上所示,do就是你的函数,因为map只接收一个参数,因此如果有多个参数时,需要再写个函数把之前的函数包装一层(eg:我的main_weight有两个参数,我写了个do将其包装为一个函数)。之后就按照示例上的将所有数据append到一个列表param中,后面再跟pool.close()和pool.join()就OK了!!!

一分钟学会python多进程并发(mutliprocessing)用法_第3张图片

        毫无疑问,这几个句子是同时出现的,而不是一条一条出现的,也就是说第一秒出现了前三行,之后才出现中间三行,最后出现最后三行。




番外阅读:

multiprocessing包是Python中的多进程管理包。
与threading.Thread类似,它可以利用multiprocessing.Process对象来创建一个进程。
该进程可以运行在Python程序内部编写的函数。
该Process对象与Thread对象的用法相同,也有start(), run(), join()的方法。
此外multiprocessing包中也有Lock/Event/Semaphore/Condition类 (这些对象可以像多线程那样,通过参数传递给各个进程),用以同步进程,其用法与threading包中的同名类一致。
所以,multiprocessing的很大一部份与threading使用同一套API,只不过换到了多进程的情境。

但在使用这些共享API的时候,我们要注意以下几点:

在UNIX平台上,当某个进程终结之后,该进程需要被其父进程调用wait,否则进程成为僵尸进程(Zombie)。所以,有必要对每个Process对象调用join()方法 (实际上等同于wait)。对于多线程来说,由于只有一个进程,所以不存在此必要性。
multiprocessing提供了threading包中没有的IPC(比如Pipe和Queue),效率上更高。应优先考虑Pipe和Queue,避免使用Lock/Event/Semaphore/Condition等同步方式 (因为它们占据的不是用户进程的资源)。
多进程应该避免共享资源。在多线程中,我们可以比较容易地共享资源,比如使用全局变量或者传递参数。在多进程情况下,由于每个进程有自己独立的内存空间,以上方法并不合适。此时我们可以通过共享内存和Manager的方法来共享资源。但这样做提高了程序的复杂度,并因为同步的需要而降低了程序的效率。
 

 完毕!

如果大家觉得有用的话,欢迎点赞+关注哦!

你可能感兴趣的:(Python,C++联合式编程,python)