网络爬虫基本原理——基于python语言

什么是爬虫?


  请求网站并提取数据的自动化程序


爬虫基本流程


▌发起请求

通过HTTP库向目标站点发起请求,即发起一个Request,请求可以包含额外的headers等信息,等待服务器响应;

▌获取响应内容

如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型可能有HTML、Json字符串,二进制数据(如图片视频)等类型;

▌解析内容

得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析;可能是Json,可以直接转为Json对象解析;可能是二进制数据,可以做保存或者进一步的处理。

▌保存数据

保存形式多样,可以存为文本,也可以保存至数据库,或者保存特定格式的文件。

加群923414804免费获取数十套PDF资料,助力python学习

什么是Request和Response?


浏览器发送消息给该网址所在的服务器,这个过程叫做HTTP Request

服务器收到浏览器发送的消息后,能够根据浏览器发送消息的内容,做相应处理,然后把消息回传给浏览器

浏览器收到服务器的Response信息后,会对信息进行相应处理,然后展示

▌request中包含什么?

请求方式

主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等

GET:请求的参数已经包含在请求的网址上,网页网址栏,url后的一长串信息就是GET的参数;可以直接输入URL回车访问

POST:请求的信息在FORM DATA中;构造表单信息,提交后请求(如登陆)

请求URL

URL全程:统一资源定位符,如一个网页文档、一张图片、一个视频都可以用URL唯一确定

请求头

包含请求时的头部信息,如User-Agent、Host、Cookies等信息;包含一些比较重要的配置信息

请求体

请求时额外携带的数据,如表单提交时的表单数据

▌Response

响应状态

有多种相应状态,如200代表成功、301跳转、404找不到页面、502服务器错误

响应头

如内容类型、内容长度、服务器信息、设置cookie等等

响应体

最主要的部分,包含了请求资源的内容,如网页HTML、图片二进制数据等

程序演示

通过request请求,得到response,判断相应状态,成功获取响应体



可以抓怎样的数据?


网页文本:如HTML文档、Json格式文本等

图片:获取的是二进制文件,保存为图片格式

【示例】


视频:同为二进制文件,保存为视频格式即可

其他:只要是能请求到的,都能获取


怎样来解析


直接处理:网页本身构成简单,返回内容简单,比如可能返回就是一个最简单的字符串,简单处理去除头尾空格即可

Json解析

正则表达式

BeautifulSoup库解析

PyQuery库解析

XPath库解析


为什么抓取数据与获得数据不同?


request只得到源代码(相当于加密过后的):包括js、jss(js、jss后续加载起来后,后台会获取数据,渲染后才会变成我们看到的网页----我们要的)


怎样解决JavaScript渲染的问题?


分析Ajax请求;

Selenium/webdriver;

Splash;

PyV8、Ghost.py

----------后三个模拟加载JS -------------


怎样保存数据?


▌文本

    纯文本、Json、XML

▌关系型数据库

    MYSQL、Ocacle、SQL Server

▌非关系型数据库

    MongoDB、Redis等Key-Value形式存储

▌二进制文件

    图片、视频、音频

你可能感兴趣的:(网络爬虫基本原理——基于python语言)