Python 简单并发的代码记录

简单介绍

近期想优化一下API的请求,顺带测试一下并发编程能快多少,用到进程、线程,顺带保留一些直接可用的简单的并发代码,方便后期复制粘贴

1、urllib3 网络请求
2、获取函数执行时间(大致的)
3、进程的简单实现
4、线程的简单实现
5、通过CPU计算以及网络IO请求,简单的对比性能上的差异

公共代码

from datetime import datetime
import urllib3
import json

manager  = urllib3.PoolManager(num_pools=5)


def request_api(site):
    # print(site)
    test_url = 'http://127.0.0.1:9000/'
    r = manager.request('GET', test_url)
    data = r.data
    # json.loads(data)
    return data

def cpu_test(number):
    result = 235 * number
    return result

def print_time(func1, func2):
    start_time = datetime.now()
    func1(func2)
    end_time = datetime.now()
    print(func1, end_time-start_time)

线程测试 适合 IO密集型:读写

from concurrent.futures import ThreadPoolExecutor

def thread_map_test(func):
    result = []
    site_list = range(1000)
    with ThreadPoolExecutor(max_workers=12) as executor:
        # 返回结果是一个迭代器
        ans = executor.map(func, site_list)
        for res in ans:
            result.append(res)
    return result

def thread_test(func):
    result = []
    site_list = range(1000)
    with ThreadPoolExecutor(max_workers=5) as executor:
            ans = [executor.submit(func, i) for i in site_list ]
            # as_completed(ans)
            for res in ans:
                result.append(res.result())

进程测试 适合CPU密集型:计算

import multiprocessing

def process_by_map(func):
    data_list = range(1000)
    with multiprocessing.Pool(processes=4) as pool: 
        result = pool.map(func, data_list)
    return result 

# 会阻塞
def process_by_apply(func):
    result = []
    data_list = range(1000)
    with multiprocessing.Pool(processes=4) as pool: 
        for line in data_list:
            result.append(pool.apply(func, (line,)))
    return result

# 异步非阻塞
def process_by_apply_async(func):
    result = []
    data_list = range(1000)
    with multiprocessing.Pool(processes=4) as pool: 
        for line in data_list:
            result.append(pool.apply_async(func, (line,)))
    return result

综合测试

注意:多进程必须要写if name == ‘main’: 否则,IDE上面啥也不提示,但是没执行结果,直接点击执行就会提醒有异常

# 请注意,多进程必须要写if __name__ == '__main__': 
if __name__ == '__main__':
    
    print('''计算测试 100万次计算''')
    
    # 0:00:00.362031
    print_time(process_by_map, cpu_test)
    # 0:01:48.696417
    print_time(process_by_apply, cpu_test)
    # 0:00:11.481112
    print_time(process_by_apply_async, cpu_test)
    # 0:00:25.352362
    print_time(thread_map_test, cpu_test)
    # 0:00:20.073205
    print_time(thread_test, cpu_test)
    
    print('''网络IO 测试  1000次请求''')
    # 0:00:04.105110
    print_time(process_by_map, request_api)
    # 0:00:07.180077
    print_time(process_by_apply, request_api)
    # 0:00:00.139999
    print_time(process_by_apply_async, request_api)
    # 0:00:02.757811
    print_time(thread_map_test, request_api)
    # 0:00:02.712561
    print_time(thread_test, request_api)

结果

1、网络IO 多线程或者进程的异步请求比较合适
2、CPU计算 多进程性能差异较大,用map应该是有一定的优化的
3、CPU 计算 多进程 map 快于 apply_async 快于 apply
4、网络IO apply_sync 异步 快于 map 快于 apply

其他

1、其他还有锁机制,还未测试
2、对于进程和线程的适用原因,不够清晰,进程上下文切换资源消耗较多,需要找时间了解一下
3、测试方式和写法还不太合理,记得起再优化吧
4、对于并发数,需要自行调整,具体如何科学的得到最优解,暂时也还没有研究,只是简单调试了一下

你可能感兴趣的:(实用类,运维,python,开发语言)