python爬虫学习笔记(二)

  • 爬虫:请求网站并提取数据的自动化程序。
  • 4个基本流程:发起请求,获取响应内容,解析内容,保存数据。
    1、请求方式:主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等。
    2、请求URL:URL全称为统一资源定位符,如一个网页文档、一张图片、一个视频等都可以用URL唯一来确定。
    3、请求头:包含请求时的头部信息,如User-Agent、Host、Cookies等信息。
    4、请求体:请求时额外携带的数据,如表单提交时的表单数据。
  • Response
    1、响应状态:200代表成功、301跳转、404找不到页面、502服务器错误。
    2、响应头:如内容类型、内容长度、服务器信息、设置Cookie等等。
    3、响应体:最主要的部分,包含了请求资源的内容 ,如网页HTML、图片二进制数据等。
  • 抓取的数据:
    1、网页文本:如HTML文档,Json格式文本等。
    2、图片:获取的是二进制文件,保存为图片格式。
    3、同为二进制文件,保存为视频格式即可。
    4、只要是能请求到的,都能获取。
  • 解析方式:
    1、直接处理;
    2、Json解析;
    3、正则表达式;
    4、BeautifulSoup;
    5、PyQuery;
    6、XPath。
  • 解决JavaScript渲染问题:
    1、分析Ajax请求;
    2、Selenium/WebDriver(驱动浏览器来加载一个网页)
    3、Splash;
    4、PyV8、GHost.py。
  • 保存数据:
    1、文本:纯文本,Json、Xml等;
    2、关系型数据库:如mysql、oracle、SQL server等具有结构化表结的形式存储;
    3、非关系型数据库:如MongoDB、Redis等key-value形式存储;
    4、二进制文件:如图片、视频、音频等等直接保存成特定格式即可。

  • Python内置的HTTP请求库:Urllib
    1、urllib.request 请求模块
    2、urllib.error 异常处理模块
    3、urllib.parse url解析模块
    4、urllib.robotparser robots.txt解析模块

  • Requests库
    1、其用python语言编写,基于urllib,采用Apache2 Licensed 开源协议的HTTP库。

  • 正则表达式
    1、非python独有,re模块实现

  • BeautifulSoup库
    1、灵活又方便的网页解析库,处理高效,支持多种解析器,利用它不用编写正则表达式即可方便地实现网页信息的提取。

你可能感兴趣的:(python爬虫学习笔记(二))