Python中的requests模块

Python中的Requests模块

Requests模块是一个用于网络访问的模块,类似的模块有urllib,urllib2,httplib,httplib2等,但由于其访问http时的人性化,便于操作,深受人们喜欢。

在爬虫中常使用的模块:

获取网页内容的----- urllib, requests
分析网页常用的模块------ re, bs4(beautifulsoup4)

1. 实例引入

使用get方法获得响应对象Response,我们可以利用这个对象得到我们想要的任何信息。

# 实例引入
import requests
url = 'http://www.baidu.com'
response = requests.get(url)

print('1',response)
print('2',response.status_code)       # 获得响应状态码
print('3',response.cookies)           # 获得网页cookies信息
print('4',response.text)			  # 获得网页内容
print('5',type(response.text))        # 获得网页内容的类型

在这里插入图片描述

2.常见的请求方式

除了get方法之外。Requests还包括两种请求方法postdelete方法。
import requests

response = requests.post('http://httpbin.org/post', data={'name' : 'xxxxxxx', 'age':18})
print(response.text)			
response = requests.delete('http://httpbin.org/delete', data={'name' : 'xxxxxxx'})
print(response.text)
由例子可知,post方法请求参数是通过data参数来传递的。

Python中的requests模块_第1张图片

delete方法也通过data参数来传递请求参数。

Python中的requests模块_第2张图片

3.带参数的get请求

get参数是以params关键字参数传递的

#带参数的get请求
url1 = 'https://movie.douban.com/subject/4864908/comments?start=20&limit=20&sort=new_score&status=P'
import  requests
data = {
    'start': 20,
    'limit': 40,
    'sort': 'new_score',
    'status': 'P',
}
url = 'https://movie.douban.com/subject/4864908/comment'
response = requests.get(url, params=data)
print(response.url)

Python中的requests模块_第3张图片

4.解析json格式

JSON(JavaScript Object Notation, JS 对象简谱) 是一种轻量级的数据交换格式。它基于 ECMAScript (欧洲计算机协会制定的js规范)的一个子集,采用完全独立于编程语言的文本格式来存储和表示数据。简洁和清晰的层次结构使得 JSON 成为理想的数据交换语言。 易于人阅读和编写,同时也易于机器解析和生成,并有效地提升网络传输效率。

import requests
# ip = '8.8.8.8'
ip = input("请输入查询的IP:")
url = "http://ip.taobao.com/service/getIpInfo.php?ip=%s" %(ip)
response = requests.get(url)
content  = response.json()
print(content)
print(type(content))

Python中的requests模块_第4张图片

5.获取二进制信息

# 获取二进制数据
import requests
url = 'https://gss0.bdstatic.com/-4o3dSag_xI4khGkpoWK1HF6hhy/baike/w%3D268%3Bg%3D0/sign=4f7bf38ac3fc1e17fdbf8b3772ab913e/d4628535e5dde7119c3d076aabefce1b9c1661ba.jpg'
response = requests.get(url)
print(response.text)

with open('github.png', 'wb') as f:
    # response.text : 返回字符串的页面信息
    # response.content : 返回bytes的页面信息
    f.write(response.content)

Python中的requests模块_第5张图片

写入图像中效果:

Python中的requests模块_第6张图片

6.下载视频

import requests
# url = 'https://gss0.bdstatic.com/-4o3dSag_xI4khGkpoWK1HF6hhy/baike/w%3D268%3Bg%3D0/sign=4f7bf38ac3fc1e17fdbf8b3772ab913e/d4628535e5dde7119c3d076aabefce1b9c1661ba.jpg'
url = "http://gslb.miaopai.com/stream/sJvqGN6gdTP-sWKjALzuItr7mWMiva-zduKwuw__.mp4"
response = requests.get(url)
with open('/tmp/learn.mp4', 'wb') as f:
    # response.text : 返回字符串的页面信息
    # response.content : 返回bytes的页面信息
    f.write(response.content)
下载成功

在这里插入图片描述

7.添加headers信息

get参数中田间header信息

import requests

url = 'http://www.cbrc.gov.cn/chinese/jrjg/index.html'
user_agent = 'Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0'
headers = {
    'User-Agent': user_agent
}
response = requests.get(url, headers=headers)
print(response.text)
print(response.status_code)
使得之前需要使用好几步urlopen方法的伪装浏览器操作变得只需在get方法中加入header参数即可。

Python中的requests模块_第7张图片

8.上传文件

import  requests
# 上传的数据信息(字典存储)
data = {'file':open('github.png', 'rb')}
response = requests.post('http://httpbin.org/post', files=data)
print(response.text)

使用[http://httpbin.org/post]网站返回的值确定可上传文件
Python中的requests模块_第8张图片

9.获取cookie信息

import  requests
# 上传的数据信息(字典存储)
response = requests.get('http://www.csdn.net')
print(response.cookies)
for key, value in response.cookies.items():
    print(key + "=" + value)

在这里插入图片描述

10.读取已经存在的cookie信息访问网址内容(会话维持)

import  requests
# 上传的数据信息(字典存储)
# 设置一个cookie: name='westos'
s = requests.session()
response1 = s.get('http://httpbin.org/cookies/set/name/villa')
response2 = s.get('http://httpbin.org/cookies')
print(response2.text)

Python中的requests模块_第9张图片

11.忽略证书验证

由于很多网站在爬取时会碰到需要证书验证的问题,在get方法中加入verify=False可忽略证书验证
在没有加入忽略参数时,即无法访问
# 忽略证书验证
import  requests
url = 'https://www.12306.cn'
response = requests.get(url)
print(response.status_code)
print(response.text)

在这里插入图片描述

添加忽略参数之后

# 忽略证书验证
import  requests
url = 'https://www.12306.cn'
response = requests.get(url, verify=False)
print(response.status_code)
print(response.text)

在这里插入图片描述

12.代理设置(proxies=proxy)/设置超时间(timeout=sec)

# 代理设置/设置超时间
import requests

proxy = {
    'https': '171.221.239.11:808',
    'http': '218.14.115.211:3128'
}
response = requests.get('http://httpbin.org/get', proxies=proxy,  timeout=10)
print(response.text)

你可能感兴趣的:(Python)