python爬虫网络中断_Python 爬虫总是超时中断?试试Tenacity重试模块

为了避免由于一些网络或等其他不可控因素,而引起的功能性问题。比如在发送请求时,会因为网络不稳定,往往会有请求超时的问题。

这种情况下,我们通常会在代码中加入重试的代码。重试的代码本身不难实现,但如何写得优雅、易用,是我们要考虑的问题。

这里要给大家介绍的是一个第三方库 - Tenacity ,它实现了几乎我们可以使用到的所有重试场景,比如:

在什么情况下才进行重试?

重试几次呢?

重试多久后结束?

每次重试的间隔多长呢?

重试失败后的回调?

在使用它之前 ,先要安装它

$pip install tenacity

1. 最基本的重试

无条件重试,重试之间无间隔

from tenacity import retry

@retry

def test_retry():

print("等待重试,重试无间隔执行...")

raise Exception

test_retry()

无条件重试,但是在重试之前要等待 2 秒

from tenacity import retry, wait_fixed

@retry(wait=wait_fixed(2))

def test_retry():

print("等待重试...")

raise Exception

test_retry()

2. 设置停止基本条件

只重试7 次

from tenacity import retry, stop_after_attempt

@retry(stop=

你可能感兴趣的:(python爬虫网络中断)