关于Python爬虫网络请求requests的使用方法

Hello!感谢各位看官老爷对我的支持,本篇文章讲解requests模块post和get的基本使用,觉得不错的话就关注我吧

图片

requests是一个Python第三方的网络请求模块,是学习网络爬虫最基础的模块,他比Python自带的urllib模块使用起来简单的很多,该模块可以非常简单的使用一行代码就能够对url发起请求

因为是第三方库,所以要通过pip下载才能使用下载方法如下:

pip install requests

这个模块一共有4个方法,如下:

GET:查看资源

POST:增加资源

PUT/PATCH:修改资源

DELETE:删除资源

HEAD:查看响应头

OPTIONS:查看可用请求方法

其中最常用的是POST和GET方法

以下是一个发起一共get请求的示例:

import requests

response = requests.get(url="http://www.baidu.com")

print(response.text)#输出请求后的网页

这样子子就请求到了目标网页的数据

想要拿到请求到的网页只需要调用text方法就行如:

post方法的使用:

data = {"xxx":xxx,"xxx":xxxx}

response =  requests.post(url="http://xxxxx",data=data)

即可发送一共post请求,该模块十分方便简单,本篇文章讲解的是最基本的使用方法

你可能感兴趣的:(关于Python爬虫网络请求requests的使用方法)