tenliu的爬虫-python库urllib、urllib2、requests关系

  • 基本爬虫知识python库urllib、urllib2、requests
  • urllib、urllib2、request三者关系
  • 从python的urllib开始
  • urllib2学习
  • requests学习
  • ps:如何用浏览器抓包分析
  • ps:爬虫分析小工具
  • 页面提取
  • 正则表达式
  • xpath
  • beautifulsoup
  • 动态页面抓取selenium+phantomjs
  • scrapy框架
  • 基本用法
  • 中间件-代理、登录
  • 抓取环
  • 分布式爬虫
  • scrapy_redis,
  • scrapy-cluster(加入kafka利器)
  • scrapy的改造
  • 自定义下载器
  • 手机app数据抓取
  • 利用代理抓接口(青花瓷)
  • appium(selenium和appium原本都是自动化测试工具,用来做爬虫也是很好的)

开篇语

抓取始终是一个很大的需求,小到单个页面,某个站点,大到搜索引擎(百度、谷歌)的全网抓取。
只要人能看到的东西,理论上都是爬虫可以获取的。不论静态页面还是动态页面。也不论pc端的页面还是移动端的app。
话有点大,但这就是本系列的目的。
爬虫编程,有很多语言可选,python、php、go、java···甚至是c。这里我们选择python作为爬虫的编程语言,因为它简单易上手,并且节约生命。

python爬虫

这里需要声明的是以下的教程都是基于python2.7的,python3已经有很大的变化了。
不了解python如何开始我们的爬虫呢?随便找个python教程,花五分钟时间看一下基本语法,就可以回来继续我们的爬虫之旅。
python中可以用来做爬虫的库也有很多,比较常用的是urllib、urllib2和requests,这三个库基本可以解决大部分抓取需求,我们也将从这里开始学起。
很多人做了一段时间的爬虫了,也不是很清楚这三者的关系,用这个库的这个方法也可以,那个库的那个方法也行,区别是啥,很容易混淆。所以下面我们对这三个库的关系和区别有一个清晰的认识。

urllib、urllib2、requests关系

urllib和urllib2是python标准库,就是你安装了python,这两个库就已经可以直接使用了;requests是第三方库,不是python基金会实现的,但是功能是很强大的。

urllib和urllib2

我们先说这两个标准库,这两个库做爬虫也基本够用了,不用requests也是可以的。

  • urllib和urllib2都是通过url打开资源,其中urllib短板是在太大,例如它只能接受url,却如法对请求进行headers的伪装,这样写的爬虫发送的请求会被很多网站直接阻挡掉。
  • 因此python基金会不得不推出urllib2对这块功能进行增强。urllib2可以接受一个Request对象,并以此设置一个URL的headers。
  • 但是问题在于urllib2并没有完全取代urllib的所有功能,比如urllib中的urlencode()方法,在urllib2中就是没有的。所以urllib和urllib2不得不一起使用。

requests

urllib和urllib2是够乱的吧,使用时还要考虑url编码等等问题。第三方库requests出现了,它的slogen是Requests is the only Non-GMO HTTP library for Python, safe for human consumption.相对于标准库urllib、urllib2也确实有资格说这句话。
以上
基础的东西(urllib、urllib2、requests)我们还是要了解的,在这个过程中知道爬虫是怎么回事,以后再使用其他库、框架、搞分布式什么的

你可能感兴趣的:(tenliu的爬虫-python库urllib、urllib2、requests关系)