目录
一、多线程化选择
二、并行化思想
三、多线程化应用
参考网址
并行化一个代码有两大选择:multithread 和 multiprocess。
Multithread,多线程,同一个进程(process)可以开启多个线程执行计算。每个线程代表了一个 CPU 核心,这么多线程可以访问同样的内存地址(所谓共享内存),实现了线程之间的通讯,算是最简单的并行模型。
Multiprocess,多进程,则相当于同时开启多个 Python 解释器,每个解释器有自己独有的数据,自然不会有数据冲突。
并行化的基本思路是把 dataframe 用 np.array_split
方法切割成多个子 dataframe。再调用 Pool.map
函数并行地执行。注意到顺序执行的 pandas.DataFrame.apply
是如何转化成 Pool.map
然后并行执行的。
Pool 对象是一组并行的进程,开源Pool类
开源Pool类定义
def Pool(self, processes=None, initializer=None, initargs=(),
maxtasksperchild=None):
'''Returns a process pool object'''
from .pool import Pool
return Pool(processes, initializer, initargs, maxtasksperchild,
context=self.get_context())
设置进程初始化函数
def init_process(global_vars):
global a
a = global_vars
设置进程初始化函数
Pool(processes=8,initializer=init_process,initargs=(a,))
其中,指定产生 8 个进程,每个进程的初始化需运行 init_process
函数,其参数为一个 singleton tuple a
. 利用 init_process
和 initargs
,我们可以方便的设定需要在进程间共享的全局变量(这里是 a
)。
with
关键词是 context manager,避免写很繁琐的处理开关进程的逻辑。
with Pool(processes=8,initializer=init_process,initargs=(a,)) as pool:
result_parts = pool.map(apply_f,df_parts)
多线程时间比较和多线程的几种apply应用
import numpy as np
import pandas as pd
import time
from multiprocessing import Pool
def f(row):
#直接对某列进行操作
return sum(row)+a
def f1_1(row):
#对某一列进行操作,我这里的columns=range(0,2),此处是对第0列进行操作
return row[0]**2
def f1_2(row1):
#对某一列进行操作,我这里的columns=range(0,2),此处是对第0列进行操作
return row1**2
def f2_1(row):
#对某两列进行操作,我这里的columns=range(0,2),此处是对第0,2列进行操作
return pd.Series([row[0]**2,row[1]**2],index=['1_1','1_2'])
def f2_2(row1,row2):
#对某两列进行操作,我这里的columns=range(0,2),此处是对第0,2列进行操作
return pd.Series([row1**2,row2**2],index=['2_1','2_2'])
def apply_f(df):
return df.apply(f,axis=1)
def apply_f1_1(df):
return df.apply(f1_1,axis=1)
def apply_f1_2(df):
return df[0].apply(f1_2)
def apply_f2_1(df):
return df.apply(f2_1,axis=1)
def apply_f2_2(df):
return df.apply(lambda row :f2_2(row[0],row[1]),axis=1)
def init_process(global_vars):
global a
a = global_vars
def time_compare():
'''直接调用和多线程调用时间对比'''
a = 2
np.random.seed(0)
df = pd.DataFrame(np.random.rand(10**5,2),columns=range(0,2))
print(df.columns)
t1= time.time()
result_serial = df.apply(f,axis=1)
t2 = time.time()
print("Serial time =",t2-t1)
print(result_serial.head())
df_parts=np.array_split(df,20)
print(len(df_parts),type(df_parts[0]))
with Pool(processes=8,initializer=init_process,initargs=(a,)) as pool:
#with Pool(processes=8) as pool:
result_parts = pool.map(apply_f,df_parts)
result_parallel= pd.concat(result_parts)
t3 = time.time()
print("Parallel time =",t3-t2)
print(result_parallel.head())
def apply_fun():
'''多种apply函数的调用'''
a = 2
np.random.seed(0)
df = pd.DataFrame(np.random.rand(10**5,2),columns=range(0,2))
print(df.columns)
df_parts=np.array_split(df,20)
print(len(df_parts),type(df_parts[0]))
with Pool(processes=8,initializer=init_process,initargs=(a,)) as pool:
#with Pool(processes=8) as pool:
res_part0 = pool.map(apply_f,df_parts)
res_part1 = pool.map(apply_f1_1,df_parts)
res_part2 = pool.map(apply_f1_2,df_parts)
res_part3 = pool.map(apply_f2_1,df_parts)
res_part4 = pool.map(apply_f2_2,df_parts)
res_parallel0 = pd.concat(res_part0)
res_parallel1 = pd.concat(res_part1)
res_parallel2 = pd.concat(res_part2)
res_parallel3 = pd.concat(res_part3)
res_parallel4 = pd.concat(res_part4)
print("f:\n",res_parallel0.head())
print("f1:\n",res_parallel1.head())
print("f2:\n",res_parallel2.head())
print("f3:\n",res_parallel3.head())
print("f4:\n",res_parallel4.head())
df=pd.concat([df,res_parallel0],axis=1)
df=pd.concat([df,res_parallel1],axis=1)
df=pd.concat([df,res_parallel2],axis=1)
df=pd.concat([df,res_parallel3],axis=1)
df=pd.concat([df,res_parallel4],axis=1)
print(df.head())
if __name__ == '__main__':
time_compare()
apply_fun()
https://blog.fangzhou.me/posts/20170702-python-parallelism/
https://docs.python.org/3.7/library/multiprocessing.html