人生苦短,我用 Python
如果我的文章对您有帮助,请关注支持下作者的公众号:极客挖掘机,您的关注,是对小编坚持原创的最大鼓励:)
前文传送门:
小白学 Python 爬虫(1):开篇
小白学 Python 爬虫(2):前置准备(一)基本类库的安装
小白学 Python 爬虫(3):前置准备(二)Linux基础入门
小白学 Python 爬虫(4):前置准备(三)Docker基础入门
小白学 Python 爬虫(5):前置准备(四)数据库基础
小白学 Python 爬虫(6):前置准备(五)爬虫框架的安装
小白学 Python 爬虫(7):HTTP 基础
小白学 Python 爬虫(8):网页基础
小白学 Python 爬虫(9):爬虫基础
小白学 Python 爬虫(10):Session 和 Cookies
小白学 Python 爬虫(11):urllib 基础使用(一)
小白学 Python 爬虫(12):urllib 基础使用(二)
前面两篇基础,我们介绍请求发送的过程。
不知道各位同学有没有想过这样一个问题,如果在爬虫运行的过程中,网络突然波动了下,比如突然网速很慢很慢,造成当前的请求超时,程序很可能会直接挂掉。
这种处理方式显然不是我们希望看到的,我们希望看到的肯定是如果当前的请求挂掉,那就挂掉,不要影响其他的请求或者是下一次的请求。
那么,我们在发送请求的时候,异常处理就显得十分有必要。
urllib 的 error 模块定义了由 request 模块产生的异常,如果出现问题, request 模块便会抛出 error 模块中定义的异常。
URLError 这个类来自于 urllib 库的 error 模块,它继承自 OSError ,是 error 异常模块的基类,由 request 模块产生的异常都可以通过捕获这个类来处理。
它只有一个属性 reason ,即返回错误的原因。
我们来写一个简单的示例大家看一下:
from urllib import request, error# 访问明显不存在的地址,报错:Not Foundtry: response = request.urlopen('https://www.geekdigging.com/aa')except error.URLError as e: print(e.reason)# 访问超时,报错:timed outtry: response = request.urlopen('https://www.baidu.com', timeout=0.001)except error.URLError as e: print(e.reason)
这里我们访问了一个明显不存在的链接和限定了极短的超时时间,这里会抛出异常,但是我们捕获了 URLError 这个异常,运行结果如下:
Not Foundtimed out
程序没有直接抛出异常终止运行,而是输出了上面这个异常,通过这样的操作,我们可以避免程序异常终止,同时还可以对这个异常做出针对性的处理。
此外,异常捕捉抛出的异常不一定都是字符串类型,比如访问超时的报错,我们将打印结果的代码稍作改动:
from urllib import request, errorimport socket# 异常类型示例try: response = request.urlopen('https://www.baidu.com', timeout=0.001)except error.URLError as e: print(type(e.reason)) if isinstance(e.reason, socket.timeout): print('TIME OUT')
结果如下:
TIME OUT
它是 URLError 的子类,专门用来处理 HTTP 请求错误,比如认证请求失败等。它有如下 3 个属性。
还是先看一个最简单的示例:
from urllib import request, error# 访问明显不存在的地址,使用 HTTPError 捕捉异常try: response = request.urlopen('https://www.geekdigging.com/aa')except error.HTTPError as e: print(e.reason, e.code, e.headers, sep='')
运行结果如下:
Not Found404Date: Sun, 01 Dec 2019 15:11:48 GMTContent-Type: text/htmlContent-Length: 49307Connection: closeServer: tencent-cosLast-Modified: Sun, 01 Dec 2019 15:03:24 GMTX-NWS-UUID-VERIFY: c89959eb27b89a0fb1c0326d1b2e7171Accept-Ranges: bytesETag: "1bb6cc2c28a5621cf0c3238107edc229"x-cos-error-code: NoSuchKeyx-cos-error-detail-Key: aax-cos-error-message: The specified key does not exist.x-cos-request-id: NWRlM2Q4MzRfMzNhNzAzMDlfYTljZl8yNGU1NTgxx-cos-trace-id: OGVmYzZiMmQzYjA2OWNhODk0NTRkMTBiOWVmMDAxODc0OWRkZjk0ZDM1NmI1M2E2MTRlY2MzZDhmNmI5MWI1OTQ5YWUxMjNkYTk3NzdjZmZlMDQzOTgxOThkOTNlOWFkOGJiN2YzOGQ5MDdjNGY0ODQ1MGIzYjUyMzg2NjFhNzc=X-Daa-Tunnel: hop_count=2X-NWS-LOG-UUID: 7c3fe80b-af9a-4e59-969b-10c8b3963a1dX-Cache-Lookup: Hit From UpstreamX-Cache-Lookup: Hit From Upstream
因为 URLError 是 HTTPError 的父类,所以可以先选择捕获子类的错误,再去捕获父类的错误,这样对异常的处理更具针对性。
注意: 捕捉异常一般先捕捉子类异常,再捕捉父类异常。
所以我们可以更改下前面的异常捕捉的代码进行一些优化:
# 优化异常捕捉代码try: response = request.urlopen('https://www.geekdigging.com/aa')except error.HTTPError as e: print(e.reason, e.code, e.headers, sep='')except error.URLError as e: print(e.reason)else: print('Request Success!')
本系列的所有代码小编都会放在代码管理仓库 Github 和 Gitee 上,方便大家取用。
示例代码-Github:https://github.com/meteor1993/python-learning/tree/master/python-spider/urllib-request
示例代码-Gitee:https://gitee.com/inwsy/python-learning/tree/master/python-spider/urllib-request
https://www.cnblogs.com/zhangxinqi/p/9170312.html