爬虫URLLIB的基本使用

URLLIB库的基本使用

  • Request:它是最基本的HTTP请求模块,可以模拟发起请求,使用时需要给库传的URL和相关的参数即可
  • Error:异常处理模块,如果出现了请求错误,可以使用这个模块捕捉这个异常,然后进行其他的操作,保证程序不会因为异常而终止
  • Parse:这是个工具模块,提供了很多的URL处理方法,比如拆分,解析,合并等

URLOPEN方法的使用

  • URL:设置目标URL
  • Data:设置给参数就默认为POST请求,不设置为GET请求
  • Timeout:设置超时时间,单位为秒
  • Content:必须是一个ssl,用来指定SSL设置,忽略未认证的CA证书

Request

  • URL;参数是请求连接,这是个必传参数
  • data:参数和Urlopen()中的打他参数用法相同

data(默认空):是伴随 url 提交的数据(比如要post的数据),同时 HTTP 请求将从 "GET"方式 改为 "POST"方式。

  • Headers:是个字典,除了在Request中添加,还可以通过调用Request中的add_header()方法来添加请求头

headers(默认空):是一个字典,包含了需要发送的HTTP报头的键值对。

  • unverifiable:默认为False,表示用户没有足够的权限俩选择接收这个请求的结果
  • method:参数是指发起的HTTP请求的方式

Get方式

Get请求一般用于我们向服务器获取数据,中文会被转化为十六进制的数据

GET方式是直接以链接形式访问,链接中包含了所有的参数,服务器端用Request.QueryString获取变量的值。如果包含了密码的话是一种不安全的选择,不过你可以直观地看到自己提交了什么内容。

Post方式

Request请求对象的里面data参数,而这个参数就是用在POST里面的

POST则不会在网址上显示所有的参数,服务器端用Request.Form获取提交的数据,在Form提交的时候。但是HTML代码里如果不指定 method 属性,则默认为GET请求,Form中提交的数据将会附加在url之后,以?分开与url分开。

parse模块常用的URL解析、合并、编码、解码

使用时需导入

from urllib import parse

urlparse()实现URL的识别和分段

url = 'https://book.qidian.com/info/1004608738?wd=123&page=20#Catalog'
"""
url:待解析的url
scheme='':假如解析的url没有协议,可以设置默认的协议,如果url有协议,设置此参数无效
allow_fragments=True:是否忽略锚点,默认为True表示不忽略,为False表示忽略
"""
result =   parse.urlparse(url=url,scheme='http',allow_fragments=True)

print(result)
print(result.scheme)
"""
(scheme='https', netloc='book.qidian.com', path='/info/1004608738', params='', query='wd=123&page=20', fragment='Catalog')
scheme:表示协议
netloc:域名
path:路径
params:参数
query:查询条件,一般都是get请求的url
fragment:锚点,用于直接定位页
面的下拉位置,跳转到网页的指定位置
"""

urlunparse()可以实现URL的构造

url_parmas = ('https', 'book.qidian.com', '/info/1004608738', '', 'wd=123&page=20', 'Catalog')
#components:是一个可迭代对象,长度必须为6
result = parse.urlunparse(url_parmas)
print(result)
"""
https://book.qidian.com/info/1004608738?wd=123&page=20#Catalog
"""

urljoin()传递一个基础链接,根据基础链接可以将某一个不完整的链接拼接为一个完整链接

base_url = 'https://book.qidian.com/info/1004608738?wd=123&page=20#Catalog'
sub_url = '/info/100861102'

full_url = parse.urljoin(base_url,sub_url)

print(full_url)

urlencode()将字典构形式的参数序列化为url编码后的字符串

(常用来构造get请求和post请求的参数)k1=v1&k2=v2

parmas = {
'wd':'123',
'page':20
}
parmas_str = parse.urlencode(parmas)

print(parmas_str)

"""
page=20&wd=123
"""

parse_qs()将url编码格式的参数反序列化为字典类型

parmas_str = 'page=20&wd=123'
parmas = parse.parse_qs(parmas_str)
print(parmas)

"""
{'page': ['20'], 'wd': ['123']}
"""

quote()可以将中文转换为URL编码格式

word = '中国梦'
url = 'http://www.baidu.com/s?wd='+parse.quote(word)
print(parse.quote(word))
print(url)

"""
%E4%B8%AD%E5%9B%BD%E6%A2%A6
http://www.baidu.com/s?wd=%E4%B8%AD%E5%9B%BD%E6%A2%A6
"""

unquote:可以将URL编码进行解码

url = 'http://www.baidu.com/s?wd=%E4%B8%AD%E5%9B%BD%E6%A2%A6'
print(parse.unquote(url))
"""
http://www.baidu.com/s?wd=中国梦
"""

urllib的异常错误处理

这里主要说的是URLErrorHTTPError,以及对它们的错误处理。
URLError:来自urllib库的error模块,继承自OSError,由request模块产生的异常都可以通过捕捉这个类来处理.
产生的原因主要有:

  • 没有网络连接
  • 服务器连接失败
  • 找不到指定的服务器
    它具有一个属性reason,返回错误的原因

HTTPError

  • HTTPError是URLError的子类,我们发出一个请求时,服务器上都会对应一个response应答对象,其中它包含一个数字"响应状态码"。
  • 专门用来处理HTTP请求错误,比如未认证,页面不存在等
  • 有三个属性:
    • code:返回HTTP的状态码
    • reason:返回错误原因
    • headers:返回请求头

你可能感兴趣的:(爬虫URLLIB的基本使用)