requests高阶应用
import requests
f = open('chn.jpg','rb')
files = {
'file':f
}
res = requests.post(url='***',files = files)
from requests import Session
1.实例化一个对象session = Session()
2.urlurl = '*****'
3.session.get()或者session.post(url=url.headers=headers)res = session.post(url=url.headers=headers)
import requests
url = '******'
requests.packages.urllib3.disable_warinings()
res = requests.get(url=url,verify=false)
代理的分类:
透明代理ip:服务器知道你使用了代理,服务器能够获取爬虫真实的ip
匿名代理ip:服务器知道你使用了代理,服务器不能获取爬虫真实的ip
高匿代理ip:服务器不知道使用了代理,服务器不能获取爬虫真实ip
反爬:ip封禁--->使用代理ip
import requests
url = '*********'
proxies = {
'http':'http://ip地址:端口号',
}
res = requests.get(url=url,proxies = proxies)
给予爬虫与服务器连接的时间限定,设置一个时间,在指定的时间内完成了正常的连接,不报错,如果没有完成,就会报错
import requests
res=requests.get(url=url,timeout=0.1)
2.cookiejar对象
3.自动封装cookie的类:Session
1.手动在headers中添加cookie的键值对
import requests
url = 'https://www.baidu.com/'
headers = {
'Cookie':'BIDUPSID=B63BDB40304991E9FF3159864CC9C302; PSTM=1586308511; BAIDUID=B63BDB40304991E9CC4E4ECFFCFFB23D:FG=1; BD_UPN=12314753; BDUSS=VWNmZu',
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36'
}
res = requests.get(url=url,headers=headers)
2.cookiejar对象
import requests
from requests.cookies import RequestsCookieJar
1.首先需要获取Cookies
Cookie = ***********
2.实例化一个jar对象
jar = RequestsCookieJar()
3.处理Cookies,封装进jar对象中
for i in Cookie.split(','):
k,v = i.split('=',1)
jar.set(k,v)
3.Session类,会话维持
from requests import Session
1.实例化一个对象
session = Session()
2.url
url = '*****'
headers={
...
}
data={
....
}
3.session.get()或者session.post(url=url.headers=headers)
res = session.post(url=url,headers=headers,data=dat)