第一次编写博客有很多不足的地方希望指正。这些都是我在视频上学习之后总结的一些笔记,大家可以进行参考,希望对大家有帮助。
也叫计算密集型,是指I/O在很短的时间就可以完成,CPU需要大量的计算和处理,特点是CPU占用率相当高
如:压缩解压缩、加密解密、正则表达式搜索
IO密集型是指系统运作大部分时间都在等待I/O(硬盘/内存)的读/写操作,CPU占用率仍然较低。
如:文件处理程序、网络爬虫程序、读写数据库程序
一个进程中可以启动多个线程,一个线程中可以启动多个协程。
一个CPU默认可以执行一个任务,如果想要多个程序一起执行,理论上将需要多个CPU,操作系统为了让多个程序,都能够得到执行的集合,采用了一系列的方案来实现,如:时间片调度。将每个任务交给CPU处理很少的时间,然后就去处理另外一个任务。实现了多个任务看上去是一起执行的。
通过threading.enumerate()
来查看进程。
class Task(threading.Thread):
def run(self) -> None:
while True:
print("111")
# run方法中调用其他方法
self.xx()
# 创建一个对象
t = Task()
# 因为继承,可以直接使用父类的start方法,并且会运行run方法
t.start()
def xx():
pass
queue.Queue()
queue.LifoQueue()
queue.PriorityQueue()
线程安全指某个函数、函数库在多线程环境中被调用时。能够正确的处理多个线程之间的共享变量,使程序功能正确完成。
由于线程的执行随时会发生切换,就造成了不可预料的结果,出现线程不安全。如,银行取钱。
import threading
lock = threading.Lock()
def draw(account,amount : int):
with lock:
if account.balance >= amount:
# time.sleep(0.1)
print(threading.current_thread().name,'取钱成功')
account.balance -= amount
print(threading.current_thread().name,'余额:',account.balance)
else:
print(threading.current_thread().name,'取钱失败')
将代码放在互斥锁上锁和解锁之间
import threading
lock = threading.Lock()
# 上锁
lock.acquire()
pass
# 解锁
lock.release()
程序:一段代码,这个代码规定了将来运行时程序执行的流程
进程:一个程序运行起来后,代码+用到的资源(CPU、内存、网络等)
如果遇到CPU密集型计算,多线程反而会降低执行速度。
multiprocessing模块就是为了python解决GIL缺陷引入的一个模块,原理是用多进程在多CPU上并发执行。
进程之间是独立的,所有的数据各自用各自的,因此为了能够让这些进程之间共享数据,不能使用全局变量,可以使用Linux (Unix)给出的解决方法︰
进程间通信(IPC)
为了更加简单的实现进程间的通信,可以使用队列Queue
import multiprocessing
q = multiprocessing.Queue()
新建的线程处于不动的状态,线程的运行需要调用start()方法系统进行就绪。然后系统进行调度让线程获得了CPU的资源,使其运行状态。
新建线程系统需要分配资源、终止线程系统需要回收资源。
如果可以重用线程,则可以减去新建和终止的开销。于是就有了线程池。
from concurrent.futures import ThreadPoolExecutor, as_completed
map函数,注意map的结果和入参是顺序对应的
with ThreadPoolExecutor() as pool:
results = pool.map('func','list')
for result in results:
print(result)
future模式,注意如果是用as_completed顺序是不定的,但是谁先进行完谁先进行返回
with ThreadPoolExecutor() as pool:
futures = [pool.submit('func',url) for url in urls]
for future in futures:
print(future.result())
for future in as_completed(futures):
print(future.result())
当需要创建的子进程数量不多时﹐可以直接利用multiprocessing中的Prcoss动态成生多个进程,但如果是上百甚至上千个目标,手动的去创建进程的工作量巨大,此时就可以用到multiprocessing模块提供的Pool方法。
初始化Pool时,可以拖定一个最大进程数,当有新的请求提交到Pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求,但如果池中的进程数已经达到指定的最大值,那么该请求就会等待,直到池中有进程结束,才会用之前的进程来执行新的任务。
from multiprocessing import Pool
import os
import random
import time
def worker(num):
for i in range(5):
print('===pid=%d==num=%d=' % (os.getpid(), num))
time.sleep(1)
# 3表示进程池中最多有三个进程一起执行
pool=Pool(3)
for i in range(10):
print('---%d---' % i)
# 向进程中添加任务
# 注意:如果添加的任务数量超过了进程池中进程的个数的话﹔那么就不会接着往进程池中添加
# 如果还没有执行的话﹐他会等待前面的进程结束﹐然后在往进程池中添加新进程
pool.apply_async(worker, (i,))
pool.close() # 关闭进程池
pool.join() # 主进程在这里等待﹐只有子进程全部结束之后,在会开后主线程