首先要明白,GIL并不是Python的一个特性,其实在我们通常所称呼的Python解释器,其实是CPython解释器,因为大部分Python程序都是基于该解释器执行的,当然还有JPython解释器(基于Java编写的),而这个GIL则是CPython解释器的特性,而不是Python的特性。
GIL全称:Global Interpreter Lock,官方解释
In CPython, the global interpreter lock, or GIL, is a mutex that prevents multiple native threads from executing Python bytecodes at once. This lock is necessary mainly because CPython’s memory management is not thread-safe. (However, since the GIL exists, other features have grown to depend on the guarantees that it enforces.)
结论:在CPython解释器中,同一个进程下开启的多线程,同一时刻只能有一个线程执行,无法利用多核优势
GIL本质上也是一把互斥锁,既然是互斥锁,本质上都是将并发变成串行,以此来控制同一时间内共享数据只能被一个任务所修改,进而保证数据安全。
GIL达到的效果则是,同一时间内只有一个线程能够拿到GIL锁,拿到GIL锁后,该线程就可以使用解释器进行操作。
小例子说明GIL的小部分作用:
没有GIL锁的话,如果有两个线程,一个线程是给变量添加数据,另一个线程则是垃圾回收机制的线程,此时可能就会出现一个问题,一个线程在定义数据产生后,还没有来的及将该数据的内存地址绑定给变量,就被垃圾回收机制给回收了(因为检测到这个数据计数为0),由于都是同一进程下的线程,且还是并发执行的,如果真的是这样执行,将给我们的程序造成很大的隐患。
可以存在的疑惑,既然有了GIL锁来保证同一时间只能有一个线程运行,那还需要Lock锁干嘛?
首先,我们需要达成共识:锁的目的是为了保护共享的数据,同一时间只能有一个线程来修改共享的数据
然后,我们可以得出结论:保护不同的数据就应该加不同的锁。
最后,问题就很明朗了,GIL 与Lock是两把锁,保护的数据不一样,前者是解释器级别的(当然保护的就是解释器级别的数据,比如垃圾回收的数据),后者是保护用户自己开发的应用程序的数据,很明显GIL不负责这件事,只能用户自定义加锁处理,即Lock
GIL保护的是解释器级别的数据,保护用户自己的数据则需要自己加锁处理,如下图:
再来分析我们的疑问:
- 如果现在存在100个线程,那么其中某一个线程会抢到GIL锁,我们且称它为:线程1。
- 当线程1拿到GIL可以使用解释器后,线程1使用一个函数对全局变量count进行+1操作之前进行了互斥锁Lock。
- 而此时线程1还未执行完+1操作,线程2就把GIL锁给抢走了,此时线程2拿到这个GIL也想来执行这个+1操作,但执行这个函数时,发现有一个Lock未被释放,那它只能阻塞住,被释放GIL。
- 当线程1再次抢到这个GIL后,继续在上一次暂停的位置完成的+1操作,做完以后,再把Lock、GIL给释放掉。此后其它线程重复1、2、3、4步骤
保护不同的数据就需要加不同的锁
有了GIL的存在,同一时刻同一进程中只有一个线程被执行
创建进程开销大、而线程开销小,却无法利用多核优势,Python不行了?
要解决这个问题,我们需要在几个点上达成一致:
- cpu到底是用来做计算的,还是用来做I/O的?
- 多cpu,意味着可以有多个核并行完成计算,所以多核提升的是计算性能
- 每个cpu一旦遇到I/O阻塞,仍然需要等待,所以多核对I/O操作没什么用处
所以我们Python中,多线程是并发操作的,而多进程是可以做到并行操作的。
那么在Python里遇到I/O操作时,线程所用资源以及速度都会优于进程的。
而如果计算的话,多进程则更占据优势
代码示例:计算密集型,多进程效率更高
from multiprocessing import Process
from threading import Thread
import os, time
def work():
res = 0
for i in range(100000000):
res *= i
if __name__ == '__main__':
l = []
print(os.cpu_count()) # 本机为8核
start = time.time()
for i in range(4):
p = Process(target=work) # 多进程、耗时6s多
# p = Thread(target=work) # 多线程、耗时19s多
l.append(p)
p.start()
for p in l:
p.join()
stop = time.time()
print('run time is %s' % (stop - start))
代码示例:I/O密集型,模拟I/O操作等待时间,线程并发效率更高
from multiprocessing import Process
from threading import Thread
import os, time
def work():
time.sleep(4)
if __name__ == '__main__':
l = []
print(os.cpu_count()) # 本机为8核
start = time.time()
for i in range(4):
# p = Process(target=work) # 多进程、耗时4.1s左右
p = Thread(target=work) # 多线程、耗时4.005s左右
l.append(p)
p.start()
for p in l:
p.join()
stop = time.time()
print('run time is %s' % (stop - start))
因为开启进程的开销会远大于开启线程,而做这种I/O较多的操作,多线程会更具有优势
应用场景举例:
多线程用于IO密集型,如socket,爬虫,web
多进程用于计算密集型,如金融分析
技术小白记录学习过程,有错误或不解的地方请指出,如果这篇文章对你有所帮助请
点赞 收藏+关注
子夜期待您的关注,谢谢支持!