本文目录:
1.进程的创建(fork和multiprocessing):
2.进程的子类(Process子类):
3.进程池Pool
4.进程间通信-Queue
5.多线程-threading
6.进程跟线程线程的区别
7.同步的概念,互斥锁
8.死锁,同步
9.生产者与消费者(Queue)
10.ThreadLocal,异步
1.进程的创建(fork和multiprocessing):
Python的os模块封装了常见的系统调用,其中就包括fork,可以在Python程序中轻松创建子进程:
import os
# 注意,fork函数,只在Unix/Linux/Mac上运行,windows不可以
cpid = os.fork()
if cpid<0:
print("fork调用失败。")
elif cpid == 0:
print("我是子进程(%s),我的父进程是(%s)"%(os.getpid(),os.getppid()))
else:
print("我是父进程(%s),我的子进程是(%s)"%(os.getpid(),cpid))
多进程中,每个进程中所有数据(包括全局变量)都各有拥有一份,互不影响,
所以多进程单独使用自己的一份数据
window中没有fork()函数,所以使用multiprocessing
from multiprocessing import Process
def run(name):
print("子线程运行中,name=%s"%name)
if __name__ == '__main__':
p=Process(target=run,args=("test",)) #参数target为要运行的任务,args是参数
p.start() #执行子进程
p.join() #让主线程等待子进程执行完
print("子进程已完成任务")
Process类常用属性:
name:当前进程实例别名,默认为Process-N,N为从1开始递增的整数;
pid:当前进程实例的PID值;
2.进程的子类(Process子类):
#coding=utf-8
from multiprocessing import Process
class cProcess(Process):
def __init__(self,name):
Process.__init__(self) #记得调用父类的init方法
print "初始化了"+str(name)
def run(self):
print "我在调用start方法之后执行"
if __name__ == '__main__':
p=cProcess("CProcess")
p.start()
p.join()
print "子进程执行完了"
3.进程池Pool
#coding=utf-8
from multiprocessing import Pool
import os,time,random
def worker(msg):
t_start=time.time()
print "%s开始执行,进程号为%d"%(msg,os.getpid())
# random.random() #该函数随机生成0-1之间的浮点数
time.sleep(random.random()*2) #让进程睡眠
t_stop=time.time()
print (t_stop-t_start)
print msg,"执行完毕,耗时%0.2f"%(t_stop-t_start)
# 必须放在main方法中创建Pool()
if __name__ == '__main__':
po=Pool(3)
for i in range(0,10):
# Pool.apply_async(要调用的目标,(传递给目标的参数元祖))
# 每次循环将会用空闲出来的子进程执行目标
# po.apply_async(worker,(i,)) #非阻塞式执行
po.apply(worker,(i,))#阻塞式执行
print("---start---")
po.close() #关闭进程池,关闭后po将不再接收新请求
po.join()#等待po中所有子进程都执行完成,必须放在close()之后
print "---end---"
multiprocessing.Pool常用函数解析:
apply_async(func[, args[, kwds]]) :使用非阻塞方式调用func(并行执行,堵塞方式必须等待上一个进程退出才能执行下一个进程),args为传递给func的参数列表,kwds为传递给func的关键字参数列表;
apply(func[, args[, kwds]]):使用阻塞方式调用func
close():关闭Pool,使其不再接受新的任务;
terminate():不管任务是否完成,立即终止;
join():主进程阻塞,等待子进程的退出, 必须在close或terminate之后使用;
4.进程间通信-Queue
Queue的说明
对于Queue,在多线程通信之间扮演重要的角色
添加数据到队列中,使用put()方法
从队列中取数据,使用get()方法
判断队列中是否还有数据,使用qsize()方法
#coding=utf-8
from multiprocessing import Process
from multiprocessing import Pool
from multiprocessing import Queue
from multiprocessing import Manager
import os,time,random
#写数据
def write(q):
for value in ['A','b',"C"]:
print "Put %s to queue..."%value
q.put(value)
time.sleep(random.random())
#取数据
def read(q):
while True:
if not q.empty():
value=q.get(True)
print "Get %s from queue..."%value
time.sleep(random.random())
else:
break
#1.父进程直接fork
def test1():
# 父进程创建Queue,并传给各个子进程:
q = Queue()
pw = Process(target=write, args=(q,))
pr = Process(target=read, args=(q,))
pw.start()# 启动子进程pw,写入:
pw.join()# 等待pw结束:
pr.start()# 启动子进程pr,读取:
pr.join()# 等待pw结束:
# pr进程里是死循环,无法等待其结束,只能强行终止:
print '所有数据都写入并且读完'
#2.使用Pool()进程池操作
def test2():
print("(%s) start" % os.getpid())
q = Manager().Queue() # 使用Manager中的Queue来初始化
po = Pool()
# 使用阻塞模式创建进程,这样就不需要在reader中使用死循环了,可以让writer完全执行完成后,再用reader去读取
po.apply(write, (q,))
po.apply(read,(q,))
po.close()
po.join()
print("(%s) End" % os.getpid())
if __name__=='__main__':
# test1()
test2()
如果要使用Pool创建进程,就需要使用multiprocessing.Manager()中的Queue(),而不是multiprocessing.Queue(),否则会得到一条如下的错误信息:
RuntimeError: Queue objects should only be shared between processes through inheritance.
5.多线程-threading
线程的定义 ,参数为目标方法
t = threading.Thread(target=func)
t.start() #启动线程,即让线程开始执行
查看线程数量
length = len(threading.enumerate())
print('当前运行的线程数为:%d'%length)
#coding=utf-8
import threading
import time
class MyThread(threading.Thread):
def run(self):
for i in range(3):
# time.sleep(1)
msg = "I'm " + self.name + ' @ ' + str(i) # name属性中保存的是当前线程的名字
print(msg)
# 多线程
def Multithreading():
for i in range(5):
t = MyThread()
t.start()
if __name__ == '__main__':
# t = MyThread()
# t.start() #单线程
# 多线程
Multithreading()
在一个进程内的所有线程共享全局变量,能够在不适用其他方式的前提下完成多线程之间的数据共享(这点要比多进程要好)
缺点就是,线程是对全局变量随意遂改可能造成多线程之间对全局变量的混乱(即线程非安全)
6.进程跟线程线程的区别:
功能:
进程,能够完成多任务,比如 在一台电脑上能够同时运行多个QQ
线程,能够完成多任务,比如 一个QQ中的多个聊天窗口
定义的不同:
进程是系统进行资源分配和调度的一个独立单位.
线程是进程的一个实体,是CPU调度和分派的基本单位,它是比进程更小的能独立运行的基本单位.线程自己基本上不拥有系统资源,只拥有一点在运行中必不可少的资源(如程序计数器,一组寄存器和栈),但是它可与同属一个进程的其他的线程共享进程所拥有的全部资源.
区别:
一个程序至少有一个进程,一个进程至少有一个线程.
线程的划分尺度小于进程(资源比进程少),使得多线程程序的并发性高。
进程在执行过程中拥有独立的内存单元,而多个线程共享内存,从而极大地提高了程序的运行效率
线线程不能够独立执行,必须依存在进程中
优缺点:
线程和进程在使用上各有优缺点:线程执行开销小,但不利于资源的管理和保护;而进程正相反。
7.同步的概念,互斥锁
多个线程共享资源,容易出现结果不可预期。这种现象称为“线程不安全”。
什么是同步
同步就是协同步调,按预定的先后次序进行运行。
互斥锁
当多个线程几乎同时修改某一个共享数据的时候,需要进行同步控制
线程同步能够保证多个线程安全访问竞争资源,最简单的同步机制是引入互斥锁。
互斥锁为资源引入一个状态:锁定/非锁定。
某个线程要更改共享数据时,先将其锁定,此时资源的状态为“锁定”,其他线程不能更改;直到该线程释放资源,将资源的状态变成“非锁定”,其他的线程才能再次锁定该资源。互斥锁保证了每次只有一个线程进行写入操作,从而保证了多线程情况下数据的正确性。
互斥锁的定义:
#创建锁
mutex = threading.Lock()
#锁定
mutex.acquire([blocking]) #blocking为true,阻塞式运行,false时,非阻塞,默认为true
#释放
mutex.release()
实例:
#coding=utf-8
from threading import Thread, Lock
import time
def func(tag):
print "进入锁前的线程名:" + t.name
if tag: #判断是否需要开启锁
lock.acquire(True) #开启锁, 参数true,未执行的线程进行阻塞
global num
num=num+1
print num
print "进入锁的线程名:"+t.name
time.sleep(1)
if tag: #判断是否需要开启锁
lock.release() #释放锁
num =0
lock=Lock() #定义锁
for i in range(0,6):
# 参数1:目标函数 参2:线程名 参3:
t=Thread(target=func,name="Thread_"+str(i),args=(True,))
t.start()
总结
锁的好处:
确保了某段关键代码只能由一个线程从头到尾完整地执行
锁的坏处:
阻止了多线程并发执行,包含锁的某段代码实际上只能以单线程模式执行,效率就大大地下降了
由于可以存在多个锁,不同的线程持有不同的锁,并试图获取对方持有的锁时,可能会造成死锁
在多线程开发中,全局变量是多个线程都共享的数据,而局部变量等是各自线程的,是非共享的
8.死锁,同步
死锁的实现,下图搜集自互联网:
简述:就是双方都拿了对方的锁,都不给对方开锁的机会
同步的实现:
#coding=utf-8
from threading import Thread,Lock
from time import sleep
class Task1(Thread):
def run(self):
while True:
if lock1.acquire():
print("------Task 1 -----")
sleep(0.5)
lock2.release()
class Task2(Thread):
def run(self):
while True:
if lock2.acquire():
print("------Task 2 -----")
sleep(0.5)
lock3.release()
class Task3(Thread):
def run(self):
while True:
if lock3.acquire():
print("------Task 3 -----")
sleep(0.5)
lock1.release()
#使用Lock创建出的锁默认没有“锁上”
lock1 = Lock()
#创建另外一把锁,并且“锁上”
lock2 = Lock()
lock2.acquire()
#创建另外一把锁,并且“锁上”
lock3 = Lock()
lock3.acquire()
t1 = Task1()
t2 = Task2()
t3 = Task3()
t1.start()
t2.start()
t3.start()
9.生产者与消费者(Queue)
队列:先进先出
栈:先进后出
为什么要使用生产者和消费者模式
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。
什么是生产者消费者模式
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。
这个阻塞队列就是用来给生产者和消费者解耦的。纵观大多数设计模式,都会找一个第三者出来进行解耦,
10.ThreadLocal,异步
ThreadLocal:是线程中的一个存储值的变量
import threading
# 创建全局ThreadLocal对象:
local_school = threading.local()
def process_student():
# 获取当前线程关联的student:
std = local_school.student
print('Hello, %s (in %s)' % (std, threading.current_thread().name))
def process_thread(name):
# 绑定ThreadLocal的student:
local_school.student = name
process_student()
t1 = threading.Thread(target= process_thread, args=('dongGe',), name='Thread-A')
t2 = threading.Thread(target= process_thread, args=('老王',), name='Thread-B')
t1.start()
t2.start()
t1.join()
t2.join()
执行结果:
Hello, dongGe (in Thread-A)
Hello, 老王 (in Thread-B)
全局变量local_school就是一个ThreadLocal对象,每个Thread对它都可以读写student属性,但互不影响。你可以把local_school看成全局变量,但每个属性如local_school.student都是线程的局部变量,可以任意读写而互不干扰,也不用管理锁的问题,ThreadLocal内部会处理。异步:
同步调用就是你 喊 你朋友吃饭 ,你朋友在忙 ,你就一直在那等,等你朋友忙完了 ,你们一起去
异步调用就是你 喊 你朋友吃饭 ,你朋友说知道了 ,待会忙完去找你 ,你就去做别的了。
可以使用Pool()实现:
pool = Pool()
pool.apply_async(func=test)