什么叫“多任务”呢?简单地说,就是操作系统可以同时运行多个任务。打个比方,你一边在用浏览器上网,一边在听 MP3,一边在用 Word 赶作业,这就是多任务,至少同时有 3 个任务正在运行。还有很多任务悄悄地在后台同时运行着,只是桌面上没有显示而已。
现在,多核 CPU 已经非常普及了,但是,即使过去的单核 CPU,也可以执行多任务。由于 CPU 执行代码都是顺序执行的,那么,单核 CPU 是怎么执行多任务的呢?
答案就是操作系统轮流让各个任务交替执行,任务 1 执行 0.01 秒,切换到任务2,任务 2 执行 0.01 秒,再切换到任务 3,执行 0.01 秒……这样反复执行下去。表面上看,每个任务都是交替执行的,但是,由于 CPU 的执行速度实在是太快了,我们感觉就像所有任务都在同时执行一样。
真正的并行执行多任务只能在多核 CPU 上实现,但是,由于任务数量远远多于CPU 的核心数量,所以,操作系统也会自动把很多任务轮流调度到每个核心上执行。
并发:指的是任务数多余 cpu 核数,通过操作系统的各种任务调度算法,实现用多个任务“一起”执行(实际上总有一些任务不在执行,因为切换任务的速度相当快,看上去一起执行而已)
并行:指的是任务数小于等于 cpu 核数,即任务真的是一起执行的
线程不能独立存在,必须依附于进程而进行存在。(所以个人理解进程实际上就可以看作是一个主线程)
python 的 thread 模块是比较底层的模块,python 的threading 模块是对 thread 做了一些包装的,可以更加方便的被使用。
import threading
import time
def saySorry():
print("亲爱的,我错了,我能吃饭了吗?")
time.sleep(1)
if __name__ == "__main__":
for i in range(5):
t = threading.Thread(target=saySorry)
t.start() #启动线程,即让线程开始执行
在Linux下使用
# 方法1:
ps -elLf|grep 线程的名字(这个py程序的名字)
# 方法2:
top 按H开始查看线程
通过使用 threading 模块能完成多任务的程序开发,为了让每个线程的封装性更完美,所以使用 threading 模块时,往往会定义一个新的子类 class,只要继承 threading.Thread 就可以了,然后重写 run 方法即可。创建自己的线程实例后,通过 Thread类的 start 方法,可以启动该线程,交给 python 虚拟机进行调度,当该线程获得执行的机会时,就会调用 run 方法执行线程。
import threading
import time
class MyThread(threading.Thread):
def run(self):
for i in range(3):
time.sleep(1)
msg = "I'm "+self.name+' @ '+str(i) #name 属性中保存的是当前线程的名字
print(msg)
if __name__ == '__main__':
t = MyThread()
t.start()
import threading
import time
class MyThread(threading.Thread):
def run(self):
for i in range(3):
time.sleep(1)
# 每一个线程都有自己相对应的名字,即使你没有定义,可以使用self.name进行调用。
msg = "I'm "+self.name+' @ '+str(i)
print(msg)
def test():
for i in range(5):
t = MyThread()
t.start()
if __name__ == '__main__':
test()
执行的结果:
I'm Thread-1 @ 0
I'm Thread-2 @ 0
I'm Thread-5 @ 0
I'm Thread-3 @ 0
I'm Thread-4 @ 0
I'm Thread-3 @ 1
I'm Thread-4 @ 1
I'm Thread-5 @ 1
I'm Thread-1 @ 1
I'm Thread-2 @ 1
I'm Thread-4 @ 2
I'm Thread-5 @ 2
I'm Thread-2 @ 2
I'm Thread-1 @ 2
I'm Thread-3 @ 2
说明:
从代码和执行结果我们可以看出,多线程程序的执行顺序是不确定的。当执行到sleep 语句时,线程将被阻塞(Blocked),到 sleep 结束后,线程进入就绪(Runnable)状态,等待调度。而线程调度将自行选择一个线程执行。上面的代码中只能保证每个线程都运行完整个 run 函数,但是线程的启动顺序、run 函数中每次循环的执行顺序都不能确定。
但是值得关注的是:无法控制线程调度程序,但可以通过别的方式来影响线程调度的方式。
from threading import Thread
import time
g_num = 100
def work1():
global g_num
for i in range(3):
g_num += 1
print("----in work1, g_num is %d---"%g_num)
def work2():
global g_num
print("----in work2, g_num is %d---"%g_num)
print("---线程创建之前 g_num is %d---"%g_num)
t1 = Thread(target=work1)
t1.start()
#延时一会,保证 t1 线程中的事情做完
time.sleep(1)
t2 = Thread(target=work2)
t2.start()
执行结束后的结果:
---线程创建之前 g_num is 100---
----in work1, g_num is 103---
----in work2, g_num is 103---
说明:
import threading
import time
g_num = 0
def work1(num):
global g_num
for i in range(num):
g_num += 1
print("----in work1, g_num is %d---"%g_num)
def work2(num):
global g_num
for i in range(num):
g_num += 1
print("----in work2, g_num is %d---"%g_num)
print("---线程创建之前 g_num is %d---"%g_num)
t1 = threading.Thread(target=work1, args=(1000000,))
t1.start()
t2 = threading.Thread(target=work2, args=(1000000,))
t2.start()
while len(threading.enumerate()) != 1:
time.sleep(1)
print("2 个线程对同一个全局变量操作之后的最终结果是:%s" % g_num)
输出的结果:
---线程创建之前 g_num is 0---
----in work1, g_num is 1088005---
----in work2, g_num is 1286202---
分析:
原因实际上就是由于+1指令不为原子指令,实际上也就是当数据在从内存调用到加法寄存器当中的时候,时间片突然结束,轮到下一个线程进行执行的时候,发生的数据少加一次,也就是说:如果多个线程同时对同一个全局变量操作,会出现资源竞争问题,从而数据结果会不正确。
同步就是协同步调,按预定的先后次序进行运行。如:你说完,我再说。"同"字从字面上容易理解为一起动作其实不是,"同"字应是指协同、协助、互相配合。
如进程、线程同步,可理解为进程或线程 A 和 B 一块配合,A 执行到一定程度时要依靠 B 的某个结果,于是停下来,示意 B 运行;B 执行,再将结果给 A;A 再继续操作。
解决线程同时修改全局变量的方式:
对于上一小节提出的那个计算错误的问题,可以通过线程同步来进行解决思路,如下:
当多个线程几乎同时修改某一个共享数据的时候,需要进行同步控制线程同步能够保证多个线程安全访问竞争资源,最简单的同步机制是引入互斥锁。
互斥锁为资源引入一个状态:锁定/非锁定
某个线程要更改共享数据时,先将其锁定,此时资源的状态为“锁定”,其他线程不能更改;直到该线程释放资源,将资源的状态变成“非锁定”,其他的线程才能再次锁定该资源。互斥锁保证了每次只有一个线程进行写入操作,从而保证了多线程情况下数据的正确性。
threading 模块中定义了 Lock 类,可以方便的处理锁定:
# 创建锁
mutex = threading.Lock()
# 锁定
mutex.acquire()
# 释放
mutex.release()
注意点:
import threading
import time
g_num = 0
def test1(num):
global g_num
for i in range(num):
mutex.acquire() # 上锁
g_num += 1
mutex.release() # 解锁
print("---test1---g_num=%d"%g_num)
def test2(num):
global g_num
for i in range(num):
mutex.acquire() # 上锁
g_num += 1
mutex.release() # 解锁
print("---test2---g_num=%d"%g_num)
# 创建一个互斥锁
# 默认是未上锁的状态
mutex = threading.Lock()
# 创建 2 个线程,让他们各自对 g_num 加 1000000 次
p1 = threading.Thread(target=test1, args=(1000000,))
p1.start()
p2 = threading.Thread(target=test2, args=(1000000,))
p2.start()
# 等待计算完成
while len(threading.enumerate()) != 1:
time.sleep(1)
print("2 个线程对同一个全局变量操作之后的最终结果是:%s" % g_num)
锁的好处:
锁的坏处:
在线程间共享多个资源的时候,如果两个线程分别占有一部分资源并且同时等待对方的资源,就会造成死锁。尽管死锁很少发生,但一旦发生就会造成应用的停止响应。下面看一个死锁的例子
import threading
import time
class MyThread1(threading.Thread):
def run(self):
# 对 mutexA 上锁
mutexA.acquire()
# mutexA 上锁后,延时 1 秒,等待另外那个线程 把 mutexB 上锁
print(self.name+'----do1---up----')
time.sleep(1)
# 此时会堵塞,因为这个 mutexB 已经被另外的线程抢先上锁了
mutexB.acquire()
print(self.name+'----do1---down----')
mutexB.release()
# 对 mutexA 解锁
mutexA.release()
class MyThread2(threading.Thread):
def run(self):
# 对 mutexB 上锁
mutexB.acquire()
# mutexB 上锁后,延时 1 秒,等待另外那个线程 把 mutexA 上锁
print(self.name+'----do2---up----')
time.sleep(1)
# 此时会堵塞,因为这个 mutexA 已经被另外的线程抢先上锁了
mutexA.acquire()
print(self.name+'----do2---down----')
mutexA.release()
# 对 mutexB 解锁
mutexB.release()
mutexA = threading.Lock()
mutexB = threading.Lock()
if __name__ == '__main__':
t1 = MyThread1()
t2 = MyThread2()
t1.start()
t2.start()
银行家算法是一种用于避免死锁的资源分配和调度算法,最初由Edsger Dijkstra提出。它是基于银行家的信贷系统的概念,用于确保在分配资源时不会陷入死锁状态。
在银行家算法中,系统中的资源被分为多个类型,并且为每个进程和系统分配一个最大需求的资源数量。算法通过检查当前系统的资源分配状态和进程的资源请求来决定是否分配资源,以避免可能导致死锁的情况。
银行家算法的基本思想是,当一个进程请求资源时,系统会先检查分配给该进程的资源是否满足请求,如果满足则分配资源,否则进程必须等待。在分配资源后,系统会检查是否存在安全序列,即一系列进程按照顺序完成并释放资源而不会导致死锁。如果存在安全序列,则分配资源;否则,拒绝分配资源,以避免可能导致死锁的情况。
银行家算法的核心目标是确保资源的安全性和有效性,以避免死锁的发生。它是一种重要的算法,广泛应用于操作系统和并发编程中,特别是在多进程或多线程环境下的资源管理和调度中。