Python爬虫学习日志——day2(requests)

requests是python的一个库,也是用来构建请求的,但是比urllib更加方便和强大。

对urllib不是很清楚的同学可以看我的上一部日志:Python爬虫学习日志——day1(urllib)

对于不同的请求方式,如GET,POST,PUT等,requests库提供了一系列简单明了的方法:

  • get()
  • put()
  • post()
  • delete()
  • head()
  • options(0

分别对应不同的请求方式,一目了然,下面就以get()方法为例:

一.get()

1.1cookies处理

使用urllib要获取网站的cookies则需要使用对应的handler创建特定功能的opener来实现,但是对于requests的get()方法,直接就可以通过返回对象的属性来获取cookies的值。

然后将cookies的值在下一次访问是放在headers里面,就可以自动放回登录后的结果。

代码示例:

import requests


url = "https://www.baidu.com"
r = requests.get(url)
print(r.cookies)
for key,value in r.cookies.items():
    print(key+'='+value)

我们调用cookies的属性,通过输出可以发现它是RequestsCookieJar类型,然后用item()方法将其转换为元组组成的列表,遍历输出每一个cookies的名称和值,实现cookies的遍历解析。

1.2get()参数一:params

如果想要在发送请求时带上额外的信息,只需要在get方法里添加一个参数params,它的值是一个由需要添加的信息组成的字典。

代码示例:

import requests


url="http://httpbin.org/ge

你可能感兴趣的:(python,爬虫,pycharm,开发语言,学习)