在网络爬虫的世界中,效率是我们永恒的追求。为了在短时间内抓取更多数据,了解并发编程的基础知识至关重要。本文将介绍线程和进程的基本概念,以及为什么我们应该在爬虫中使用线程。
在学习多线程的使用之前,需要先了解线程、进程的概念。
进程是操作系统分配资源和调度的基本单位,它包含了执行程序所需的所有资源。
线程是进程内的执行单位,它共享进程的资源,是实现并发编程的重要元素。
Python代码的执行由Python虚拟机(解释器主循环)控制。Python在设计之初就考虑到在主循环中只能有一个线程执行,虽然Python解释器中可以“运行”多个线程,但是在任意时刻只有一个线程在解释器中运行。
Python虚拟机的访问由全局解释器锁(Global Interpreter Lock, GIL)控制,这个锁能保证同一时刻只有一个线程运行。
在多线程环境中,Python虚拟机按以下方式执行:
设置GIL。
切换到一个线程运行。
运行指定数量的字节码指令或线程主动让出控制(可以调用time.sleep(0))。
把线程设置为睡眠状态。
解锁GIL。
再次重复以上所有步骤。
在调用外部代码(如C/C++扩展函数)时,GIL将被锁定,直到这个函数结束为止(由于在此期间没有运行Python的字节码,因此不会做线程切换),编写扩展的程序员可以主动解锁GIL。
多任务简单来说就是同时进行多项任务。比如一边读文献,一边听音乐,一边转笔,这样你就同时进行着三项任务。
那么单核CPU是如何完成多任务的呢?实际上,单核CPU的操作系统轮流让各个任务交替执行,任务1执行0.01秒,切换到任务2,任务2执行0.01秒,再切换到任务3,执行0.01秒……这样反复执行下去。表面上看,每个任务都是交替执行的,但是,由于CPU的执行速度实在是太快了,我们感觉就像所有任务都在同时执行一样。
真正的并行执行多任务只能在多核CPU上实现,但是,由于任务数量远远多于CPU的核心数量,所以,操作系统也会自动把很多任务轮流调度到每个核心上执行。
注意:
并发:指的是任务数多余cpu核数,通过操作系统的各种任务调度算法,实现用多个任务“一起”执行(实际上总有一些任务不在执行,因为切换任务的速度相当快,看上去一起执行而已)
并行:指的是任务数小于等于cpu核数,即任务真的是一起执行的。
线程共享内存空间,创建和切换成本低,但易于产生竞争条件。进程有独立的内存空间,安全但创建和切换成本高。
线程一般是并发执行的。正是由于这种并行和数据共享的机制,使得多个任务的合作变得可能。实际上,在单CPU系统中,真正的并发并不可能,每个线程会被安排成每次只运行一小会儿,然后就把CPU让出来,让其他线程运行。在进程的整个运行过程中,每个线程都只做自己的事,需要时再跟其他线程共享运行结果。多个线程共同访问同一块数据不是完全没有危险的,由于访问数据的顺序不一样,因此有可能导致数据结果不一致的问题,这叫作竞态条件。大多数线程库都带有一系列同步原语,用于控制线程的执行和数据的访问。
单线程代码示例:
import time
def print_hello():
print('hello')
time.sleep(1)
if __name__ == "__main__":
for i in range(5):
print_hello()
多线程代码示例:
import time
import threading
def print_hello():
print('hello')
time.sleep(1)
if __name__ == "__main__":
t = threading.Thread(target=print_hello)
t.start()
import threading
from time import sleep, ctime
def sing():
for i in range(3):
print(f'正在唱歌: {i}')
sleep(1)
def dance():
for i in range(3):
print(f'正在跳舞: {i}')
sleep(1)
if __name__ == "__main__":
print(f'程序开始: {ctime()}')
t1 = threading.Thread(target=sing)
t2 = threading.Thread(target=dance)
t1.start()
t2.start()
# 注释下一行代码查看程序是否立即退出
# sleep(5)
print(f'程序结束: {ctime()}')
import threading
from time import sleep, ctime
def sing():
for i in range(3):
print(f'正在唱歌: {i}')
sleep(1)
def dance():
for i in range(3):
print(f'正在跳舞: {i}')
sleep(1)
if __name__ == "__main__":
print(f'程序开始: {ctime}')
t1 = threading.Thread(target=sing)
t2 = threading.Thread(target=dance)
t1.start()
t2.start()
while True:
length = len(threading.enumerate())
print(f'当前线程数量: {length}')
if length <= 1:
break
sleep(0.5)
通过上一小节,能够看出,通过使用threading模块能完成多任务的程序开发,为了让每个线程的封装性更完美,所以使用threading
模块时,往往会定义一个新的子类class
,只要继承threading.Thread
就可以了,然后重写run
方法。
示例如下:
import time
import threading
class MyThread(threading.Thread):
def run(self):
for i in range(3):
time.sleep(1)
# self.name是threading模块中的一个方法 保存的是当前线程的名称
msg = '我是 ' + self.name + ' @ ' + str(i)
print(msg)
if __name__ == "__main__":
t = MyThread()
t.start()
说明:python
的threading.Thread
类有一个run
方法,用于定义线程的功能函数,可以在自己的线程类中覆盖该方法。而创建自己的线程实例后,通过Thread
类的start
方法,可以启动该线程,交给python
虚拟机进行调度,当该线程获得执行的机会时,就会调用run
方法执行线程。
import time
import threading
class MyThread(threading.Thread):
def run(self):
for i in range(3):
time.sleep(1)
msg = '我是 ' + self.name + ' @ ' + str(i)
print(msg)
def test():
for i in range(5):
t = MyThread()
t.start()
if __name__ == "__main__":
test()
**说明:**从代码和执行结果我们可以看出,多线程程序的执行顺序是不确定的。当执行到sleep
语句时,线程将被阻塞(Blocked),到sleep
结束后,线程进入就绪(Runnable)状态,等待调度。而线程调度将自行选择一个线程执行。上面的代码中只能保证每个线程都运行完整个run
函数,但是线程的启动顺序、run
函数中每次循环的执行顺序都不能确定。
每个线程默认有一个名字,尽管上面的例子中没有指定线程对象的name
,但是python
会自动为线程指定一个名字。
当线程的run()
方法结束时该线程完成。
无法控制线程调度程序,但可以通过别的方式来影响线程调度的方式。
import time
import threading
g_num = 100
def work_1():
global g_num
for i in range(3):
# 循环相加三次
g_num += 1
print(f"子线程1中计算得出的值为: {g_num}")
def work_2():
global g_num
print(f'子线程2中获取到的值为: {g_num}')
if __name__ == '__main__':
# 线程启动之前获取全局变量
print(f'子线程未启动之前主线程获取的值为: {g_num}')
# 创建线程对象
t1 = threading.Thread(target=work_1)
t1.start()
# 通过延迟保证t1线程中的事情做完
time.sleep(0.1)
t2 = threading.Thread(target=work_2)
t2.start()
time.sleep(0.1)
print(f'主线程最终获取到的值为: {g_num}')
import time
import threading
g_nums = [11, 22, 33]
def work_1(nums):
# 在全局列表中添加一个元素
nums.append(44)
print(f'子线程1添加完成之后的列表元素为: {nums}')
def work_2(nums):
print(f'子线程2获取的列表元素为: {nums}')
if __name__ == '__main__':
t1 = threading.Thread(target=work_1, args=(g_nums,))
t1.start()
# 确保子线程1完成操作后再执行一下代码
time.sleep(0.1)
t2 = threading.Thread(target=work_2, args=(g_nums,))
t2.start()
time.sleep(0.1)
print(f'主线程获取到的全局列表元素为: {g_nums}')
总结:
在一个进程内的所有线程共享全局变量,很方便在多个线程间共享数据
缺点就是,线程是对全局变量随意更改可能造成多线程之间对全局变量的混乱(即线程非安全)
假设两个线程t1
和t2
都要对全局变量g_num
(默认是0)进行加1运算,t1
和t2
都各对g_num
加10次,g_num
的最终的结果应该为20。
但是由于是多线程同时操作,有可能出现下面情况:
在g_num=0
时,t1
取得g_num=0
。此时系统把t1
调度为”sleeping”状态,把t2
转换为”running”状态,t2
也获得g_num=0
然后t2
对得到的值进行加1并赋给g_num
,使得g_num=1
然后系统又把t2
调度为”sleeping”,把t1
转为”running”。线程t1
又把它之前得到的0加1后赋值给g_num
。
这样导致虽然t1
和t2
都对g_num
加1,但结果仍然是g_num=1
示例代码一:
import threading
import time
g_num = 0
def work_1(num):
global g_num
for i in range(num):
g_num += 1
print(f"线程1计算的结果为: {g_num}")
def work_2(num):
global g_num
for i in range(num):
g_num += 1
print(f"线程2计算的结果为: {g_num}")
if __name__ == "__main__":
print(f"线程创建之前g_num的值为: {g_num}")
t1 = threading.Thread(target=work_1, args=(100,))
t1.start()
t2 = threading.Thread(target=work_2, args=(100,))
t2.start()
# 等待子线程任务执行完毕后再执行主线程代码
while len(threading.enumerate()) != 1:
time.sleep(1)
print("2个线程对同一个全局变量操作之后的最终结果是:%s" % g_num)
示例代码二:
import threading
import time
g_num = 0
def work_1(num):
global g_num
for i in range(num):
g_num += 1
print(f"线程1计算的结果为: {g_num}")
def work_2(num):
global g_num
for i in range(num):
g_num += 1
print(f"线程2计算的结果为: {g_num}")
if __name__ == "__main__":
print(f"线程创建之前g_num的值为: {g_num}")
t1 = threading.Thread(target=work_1, args=(1000000,))
t1.start()
t2 = threading.Thread(target=work_2, args=(1000000,))
t2.start()
# 等待子线程任务执行完毕后再执行主线程代码
while len(threading.enumerate()) != 1:
time.sleep(1)
print("2个线程对同一个全局变量操作之后的最终结果是:%s" % g_num)
**结论:**如果多个线程同时对同一个全局变量操作,会出现资源竞争问题,从而数据结果会不正确
同步就是协同步调,按预定的先后次序进行运行。如:你说完,我再说。
“同” 字从字面上容易理解为一起动作
其实不是,“同” 字应是指协同、协助、互相配合。
如进程、线程同步,可理解为进程或线程A和B一块配合,A执行到一定程度时要依靠B的某个结果,于是停下来,示意B运行;B执行,再将结果给A;A再继续操作。
对于上一小节提出的那个计算错误的问题,可以通过线程同步来进行解决
思路,如下:
系统调用t1
,然后获取到g_num
的值为0,此时上一把锁,即不允许其他线程操作g_num
t1
对g_num
的值进行+1
t1
解锁,此时g_num
的值为1,其他的线程就可以使用g_num
了,而且是g_num
的值不是0而是1
同理其他线程在对g_num
进行修改时,都要先上锁,处理完后再解锁,在上锁的整个过程中不允许其他线程访问,就保证了数据的正确性
当多个线程几乎同时修改某一个共享数据的时候,需要进行同步控制
线程同步能够保证多个线程安全访问竞争资源,最简单的同步机制是引入互斥锁。
互斥锁为资源引入一个状态:锁定 / 非锁定
某个线程要更改共享数据时,先将其锁定,此时资源的状态为 “锁定”,其他线程不能更改;直到该线程释放资源,将资源的状态变成 “非锁定”,其他的线程才能再次锁定该资源。互斥锁保证了每次只有一个线程进行写入操作,从而保证了多线程情况下数据的正确性。
threading
模块中定义了Lock
类,可以方便的处理锁定:
# 创建锁
mutex = threading.Lock()
# 锁定
mutex.acquire()
# 释放
mutex.release()
注意点:
如果这个锁之前是没有上锁的,那么acquire
不会堵塞
如果在调用acquire
对这个锁上锁之前 它已经被 其他线程上了锁,那么此时acquire
会堵塞,直到这个锁被解锁为止
import threading
import time
# 创建一个互斥锁
# 默认是未上锁的状态
mutex = threading.Lock()
# 全局变量
g_num = 0
def add_number_1(num):
global g_num
for i in range(num):
mutex.acquire() # 上锁
g_num += 1
mutex.release() # 解锁
print(f"线程1计算得出的结果为: {g_num}")
def add_number_2(num):
global g_num
for i in range(num):
mutex.acquire() # 上锁
g_num += 1
mutex.release() # 解锁
print(f"线程2计算得出的结果为: {g_num}")
if __name__ == "__main__":
# 创建2个线程,让他们各自对g_num加1000000次
p1 = threading.Thread(target=add_number_1, args=(1000000,))
p1.start()
p2 = threading.Thread(target=add_number_2, args=(1000000,))
p2.start()
# 等待计算完成
while len(threading.enumerate()) != 1:
time.sleep(1)
print("2个线程对同一个全局变量操作之后的最终结果是:%s" % g_num)
可以看到最后的结果,加入互斥锁后,其结果与预期相符。
当一个线程调用锁的acquire()
方法获得锁时,锁就进入“locked”状态。
每次只有一个线程可以获得锁。如果此时另一个线程试图获得这个锁,该线程就会变为“blocked”状态,称为“阻塞”,直到拥有锁的线程调用锁的release()
方法释放锁之后,锁进入“unlocked”状态。
线程调度程序从处于同步阻塞状态的线程中选择一个来获得锁,并使得该线程进入运行(running)状态。
总结:
锁的好处:
锁的坏处:
阻止了多线程并发执行,包含锁的某段代码实际上只能以单线程模式执行,效率就大大地下降了
由于可以存在多个锁,不同的线程持有不同的锁,并试图获取对方持有的锁时,可能会造成死锁
在线程间共享多个资源的时候,如果两个线程分别占有一部分资源并且同时等待对方的资源,就会造成死锁。
尽管死锁很少发生,但一旦发生就会造成应用的停止响应。
#coding=utf-8
import threading
import time
mutexA = threading.Lock()
mutexB = threading.Lock()
class MyThread1(threading.Thread):
def run(self):
# 对mutexA上锁
mutexA.acquire()
# mutexA上锁后,延时1秒,等待另外那个线程 把mutexB上锁
print(self.name+'----do1---up----')
time.sleep(1)
# 此时会堵塞,因为这个mutexB已经被另外的线程抢先上锁了
mutexB.acquire()
print(self.name+'----do1---down----')
mutexB.release()
# 对mutexA解锁
mutexA.release()
class MyThread2(threading.Thread):
def run(self):
# 对mutexB上锁
mutexB.acquire()
# mutexB上锁后,延时1秒,等待另外那个线程 把mutexA上锁
print(self.name+'----do2---up----')
time.sleep(1)
# 此时会堵塞,因为这个mutexA已经被另外的线程抢先上锁了
mutexA.acquire()
print(self.name+'----do2---down----')
mutexA.release()
# 对mutexB解锁
mutexB.release()
if __name__ == '__main__':
t1 = MyThread1()
t2 = MyThread2()
t1.start()
t2.start()
线程池,是一种线程的使用模式,它为了降低线程使用中频繁的创建和销毁所带来的资源消耗与代价。通过创建一定数量的线程,让他们时刻准备就绪等待新任务的到达,而任务执行结束之后再重新回来继续待命
实例化线程池对象
from concurrent.futures import ThreadPoolExecutor
def crawl(url):
print(url)
if __name__ == '__main__0':
base_url = 'https://jobs.51job.com/pachongkaifa/p{}/'
with ThreadPoolExecutor(10) as f:
for i in range(1,15):
f.submit(crawl,url=base_url.format(i))
使用线程池来执行线程任务的步骤如下:
调用 ThreadPoolExecutor 类的构造器创建一个线程池。
定义一个普通函数作为线程任务。
调用 ThreadPoolExecutor 对象的 submit() 方法来提交线程任务。
当不想提交任何任务时,调用 ThreadPoolExecutor 对象的 shutdown() 方法来关闭线程池。
from concurrent.futures import ThreadPoolExecutor
import threading
import time
# 定义一个准备作为线程任务的函数
def action(max):
my_sum = 0
for i in range(max):
print(threading.current_thread().name + ' ' + str(i))
my_sum += i
return my_sum
# 创建一个包含2条线程的线程池
pool = ThreadPoolExecutor(max_workers=2)
# 向线程池提交一个task, 50会作为action()函数的参数
future1 = pool.submit(action, 50)
# 向线程池再提交一个task, 100会作为action()函数的参数
future2 = pool.submit(action, 100)
# 判断future1代表的任务是否结束
print(future1.done())
time.sleep(3)
# 判断future2代表的任务是否结束
print(future2.done())
# 查看future1代表的任务返回的结果
print(future1.result())
# 查看future2代表的任务返回的结果
print(future2.result())
# 关闭线程池
pool.shutdown()
感兴趣的小伙伴,赠送全套Python学习资料,包含面试题、简历资料等具体看下方。
一、Python所有方向的学习路线
Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、Python必备开发工具
工具都帮大家整理好了,安装就可直接上手!
三、最新Python学习笔记
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、Python视频合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
六、面试宝典