python 爬虫 - 学习 urllib 和 requests 使用,模拟请求

前言

上篇我们了解了爬虫的基本知识,这次我们来学习下,如何用 Python 模拟浏览器访问网站和登录。

正文

Python 如此方便,正是因为它提供了很多实现好各种功能的库,它内置了许多非常有用的模块,无需额外安装和配置,即可直接使用。

同时也有很多第三方模块,我们只需要用好各种工具库和模块,就能实现很多方便的操作,用程序来代替繁琐的功能。

这次我们来学习 urllib 和 requests 模块,实现模拟请求。

urllib 介绍

Python 内置的 HTTP 请求库,安装好 Python 就能用,它是最基本的请求库,用于访问网络资源,程序发起请求,获取响应数据,使用该库实现。

主要有 4 个模块

>urllib.request 请求模块

urllib.error 异常处理模块,捕获请求和响应中出现的错误

urllib.parse url 解析模块,提供 url 处理方法,拆分合并

urllib.robotparser robots.txt 解析模块

使用

get 请求

get 请求一般是我们在浏览器地址直接输入一个地址,就能能访问到网页。

urllib 的 request 模块可以非常方便地抓取 URL 内容,也就是发送一个 GET 请求到指定的页面,然后返回 HTTP 的响应:

# 导入urllib.request 库
import urllib.request

# 向指定的url发送请求,并返回服务器响应的类文件对象
response = urllib.request.urlopen("http://www.baidu.com")

# 类文件对象支持文件对象的操作方法,如read()方法读取文件全部内容,返回字符串
html = response.read()

# 打印字符串
print (html)

我们可以浏览器上打开百度, 右键选择“查看源代码”,你会发现,跟我们刚才打印出来的是一模一样,经过浏览器渲染,就是好看的百度页面。

也就是说,上面的代码就已经帮我们把百度的首页的全部代码爬了下来。

post 请求

一般我们想要向某一个地方发送数据,就需要用到 post 请求。

像我们登陆网站,下订单等,都是用 post 实现。

# POST请求的目标URL
url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null"

headers={"User-Agent": "Mozilla"}

formdata = {
    "type":"AUTO",
    "i":"i love python",
    "doctype":"json",
    "xmlVersion":"1.8",
    "keyfrom":"fanyi.web",
    "ue":"UTF-8",
    "action":"FY_BY_ENTER",
    "typoResult":"true"
}

data = urllib.parse.urlencode(formdata)

request = urllib.request.Request(url, data = data, headers = headers)
response = urllib.request.urlopen(request)
print (response.read())

发送 POST 请求时,需要特别注意 headers 的一些属性,这个 headers 的作用就是让请求模拟浏览器发送。

headers 属性有:

>Content-Length: 144: 是指发送的表单数据长度为 144,也就是字符个数是 144 个。

Content-Type: application/x-www-form-urlencoded : 表示浏览器提交 Web 表单时使用,表单数据会按照 name1=value1&name2=value2 键值对形式进行编码。

X-Requested-With: XMLHttpRequest :表示 Ajax 异步请求。

requests

相对于 urllib,第三方库 requests 增加很多实用的高级功能,处理 URL 资源特别方便。

它包含了 urllib 全部的功能,可以节约大部分的工作。

一句话概括:Python 实现的简单易用的 HTTP 库

windows 安装:

pip install requests

pip list -- 可查看已安装的库

验证安装是否成功:

win 键+x 选择 命令提示符。输入以下命令:

Python
import requests
//没报错就成功安装了

GET 请求

import requests

kw = {'wd':'英雄联盟'}

headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}

# params 接收一个字典或者字符串的查询参数,字典类型自动转换为url编码,不需要urlencode()
response = requests.get("http://www.baidu.com/s?", params = kw, headers = headers)

# 查看响应内容,response.text 返回的是Unicode格式的数据
print (response.text)

# 查看响应内容,response.content返回的字节流数据
print (responese.content)

# 查看完整url地址
print (response.url)

# 查看响应头部字符编码
print (response.encoding)

# 查看响应码
print (response.status_code)

使用 response.text 时,Requests 会基于 HTTP 响应的文本编码自动解码响应内容,大多数 Unicode 字符集都能被无缝地解码。

使用 response.content 时,返回的是服务器响应数据的原始二进制字节流,可以用来保存图片等二进制文件。

POST 请求

要发送 POST 请求,只需要把 get()方法变成 post(),然后传入 data 参数作为 POST 请求的数据

import requests

formdata = {
    "type":"AUTO",
    "i":"i love python",
    "doctype":"json",
    "xmlVersion":"1.8",
    "keyfrom":"fanyi.web",
    "ue":"UTF-8",
    "action":"FY_BY_ENTER",
    "typoResult":"true"
}

url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null"

headers={ "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"}

response = requests.post(url, data = formdata, headers = headers)

print (response.text)
# 如果是json文件可以直接显示
print (response.json())`

Cookies 和 Sission

如果一个响应中包含了 cookie,那么我们可以利用 cookies 参数拿到:

import requests

response = requests.get("http://www.baidu.com/")

# 返回CookieJar对象:
cookiejar = response.cookies

# 将CookieJar转为字典:
cookiedict = requests.utils.dict_from_cookiejar(cookiejar)

print (cookiejar)

print (cookiedict)

运行结果:

>>> print (cookiejar)
]>
>>>
>>> print (cookiedict)
{'BDORZ': '27315'}

在 requests 里,session 对象是一个非常常用的对象,这个对象代表一次用户会话:从客户端浏览器连接服务器开始,到客户端浏览器与服务器断开。

抢茅台脚本,一直保持登陆状态的实现:

def _validate_cookies(self):
   """
   验证cookies是否有效(是否登陆)
   通过访问用户订单列表页进行判断:若未登录,将会重定向到登陆页面。
   :return: cookies是否有效 True/False
   """
   url = 'https://order.jd.com/center/list.action'
   payload = {
       'rid': str(int(time.time() * 1000)),
   }
   try:
       resp = self.session.get(url=url, params=payload, allow_redirects=False)
       if resp.status_code == requests.codes.OK:
           return True
   except Exception as e:
       logger.error("验证cookies是否有效发生异常", e)
   return False

后面的请求,都是使用 requests.session 对象去发起,这样能保证每次请求都是在登陆状态下的。

另外,附上 requests 的其他常用的方法:

>requests.request() 构造一个请求,支持以下各种方法

requests.get() 获取 html 的主要方法

requests.head() 获取 html 头部信息的主要方法

requests.post() 向 html 网页提交 post 请求的方法

requests.put() 向 html 网页提交 put 请求的方法

requests.patch() 向 html 提交局部修改的请求

requests.delete() 向 html 提交删除请求

最后

学习 urllib 和 requests 使用,是我们学习爬虫最关键的一步。

对我们来说,能学会爬虫,相当于也熟悉了 python,可以自己写一写自动化的程序,减少很多重复的劳动,提高我们的工作效率,有更多时间做自己想做的事情。

你可能感兴趣的:(后端,python,爬虫,学习,后端,面试)