运行爬虫抓取某些网站的时候,经常会碰到需要登陆验证(输入账号、密码)之后才能获取数据的情况。那么问题来了,如何完成登陆验证呢?下面以itunes为例大概总结两种方法。主要使用工具为python/java、selenium、phantomjs或firefox/chrome等浏览器.
本人之前主要使用java进行外部数据获取,用的工具包httpclient。基本没用过python-urllib2库,google了一下,发现两个特别靠谱的参考资料:
1. csdn中 @请叫我汪海的《urllib2的使用细节与抓站技巧》,学习了一下,发现还挺好使的,简单明了。
2. 另外一个可参考的资料是《urllib2 - The Missing Manual :HOWTO Fetch Internet Resources with Python》跟上面内容有重复,也有补充。
看完这两个基本就能大概掌握获取网页的用法啦,这里强调以下几点。
a. 特别注意要发送的headers。文中已经提到了User-Agent 、Content-Type 、application/xml 、application/json 、application/x-www-form-urlencoded,很多时候数据取不出来与这些header有关系。httpheader可以参照wiki《List of HTTP header fields》,当年瞎摸索的时候,没注意看好这些headers,吃了不少亏。
b. 注意使用debug模式来监测爬取过程中的信息,尤其是报错信息和报错码。错误码也请参照wiki《List_of_HTTP_status_codes》,充分利用这些错误码,也能缩短调试时间。当然,多打印try-except也是一种有效的调试手段。
工具: python-urllib2 | firefox+firebug或者chrome,用浏览器打开登陆页面之后,按F12键会默认打开开发者工具或者启动firebug,点击network监听数据包,下面以itune的登陆举一个例子。
1. 在浏览器中输入itunes的登陆地址:https://itunesconnect.apple.com/itc/static/login?view=1&path=%2FWebObjects%2FiTunesConnect.woa,同时按F12启动firebug进行网络监听.
点击“网络” --》 ”全部“ ,可以看到所有加载的页面数据,包括html/图像/css/js等。
点击“html”,全部里边显示的信息太多,可以先只看html,这里边出现的html-url通常是我们需要用urllib2实际请求的页面。
下面是firefox+firebug显示的页面
而这个是chrome的开发者工具显示的页面
不同的工具监测到数据包会有差别,上面两个对比看一下,大概估计实际需要get的url,就只有2个。
2. 我们点开查看其中一个,重点关注一下相应的参数、头信息。(头信息中的Cookie字段和 后面的cookies表单中的内容是一致的)。
头信息又分为请求头信息和响应头信息。urlopen需要提交的头信息可能是请求头信息中的一部分。响应头信息中的字段可能会在访问下一个页面的时候用到。
3. 账号密码的输入通常都会涉及到一个post请求,我们可以输入一个错误的账号、密码试试
(输入正确的用户信息,会导致这个页面跳转,控制台会全部刷新,之前的访问路径就丢了)。
点击进去,可以看到需要提交的参数(账号、密码等)、额外的头文件、cookie等。
所以,itunes的登陆大概分为上面三步:
先 get : https://itunesconnect.apple.com/itc/static/login?view=1&path=%2FWebObjects%2FiTunesConnect.woa
后 get : https://idmsa.apple.com/appleauth/auth/signin?widgetKey=22d448248055bab0dc197c6271d738c3
最后post : https://idmsa.apple.com/appleauth/auth/signin
下面附上上面3步骤对应的python代码,早期的话,这种方式直接就能完成itunes的登陆,也适用于大部分简单的网站。
总结
通过数据包分析进行登录验证的优缺点如下。
优点:执行速度快。
缺点:抓包分析比较费时,有的时候不确定哪些header是必须的,另外有些header算不出来。
在验证分析需要的header取不到的情况下,就可以考虑使用浏览器模拟点击的方式,跳过数据包分析。
工具:python/java + selenium + firefox/chrome/phantomjs
默认已经安装好了firefox
pip是一个python的软件包管理工具,用于自动下载并安装、更新python包,python3之后的某些版本已经自带pip,在python 2.7之前的话,需要自己安装,现在的安装方法已经非常简单,直接查看官方doc:http://pip.readthedocs.org/en/stable/installing/,下载get-pip.py并执行python get-pip.py即可一键安装。其他方法可参考《怎么在windows下安装pip》。为了便于使用,最好添加到系统变量PATH中。
从官网下载windows版本的压缩包(http://phantomjs.org/download.html)。下载之后,直接解压到本地。建议使用最新版phantomjs-2.0.0-windows.zip,因为有些情况下phantomjs不能正确的解析仅仅是因为版本兼容性不好,这种bug基本无解,绕来绕去最终换过版本就好了。
如果是python环境,安装好pip之后,直接使用
版权问题,debian自带的浏览器并不是firefox。如果想在debian环境下,使用firefoxDriver进行模拟点击,就必须先安装firefox。我在debian服务器上试了几种方法均失败,不过下面还是说一下找到的几种方法。
方法一:从firefox官网下载linux版之后,直接解压firefox
方法二:命令行安装。
参考
1. 《Install the Real Firefox on Debian 7》(可能需要)
2.《How to install the real Firefox on Debian?》里边讲了两种方法
3. 《Tutorial: How to use Headless Firefox for Scraping in Linux》靠谱
目前phantomjs在linux环境下并没有稳定的可执行文件需要,自行编译
a. 先安装依赖包
跟windows一样简单,直接pip install selenium就搞定,前提是pip可用。
selenium是一个自动化测试工具,支持多种编程语言java/python/javascript/ruby/php/C#/perl。我们在爬虫中主要用于抓取动态页面时模拟浏览器行为,绕过后台执行js的复杂过程,用“所见即所得”的方式进行页面点击、截屏、悬浮窗拖拽等。之前中文资料比较少,加上selenium 2.0和1.0巨大的区别,csdn上的中文博客大多不好使。刚搜了一下,好像有些中文社区和更正式一点的博客,感觉不错,先贴出来:
1. 《webDriver中文教程 & 中文社区》貌似是今年的,比较官方的样子,还没细看
2. 《Selenium Webdriver 简易教程》
3. 官网的webdriver使用文档,也属于入门级别,有些复杂操作需要从其他有经验的使用者的博客里边略窥一二。
4.《The Selenium Browser Automation Project》介绍比较全面。
下面主要介绍一下可能遇到的坑,别人的经验可以参考《记录我遇到的使用selenium让人摸不着头脑的问题 》,下面是我碰过几次的Selenium2(webdriver)在使用get(url)方法打开一个网页的时候,是不会继续加载里面的iframe中的页面源码,这与selenium 1的使用不同。当碰到有些元素不可选的时候,可以使用开发者工具查看是否有iframe元素。
官网已经有使用webdriver的优缺点的比较,例如firefox通常比ie快,而无界面的HtmlUnitDriver通常会比firefox快,但对js的支持并不是那么好。并且不同driver对xpath语法的支持也不一样。
就个人使用经验来看,即便是同样的webdriver差别还是有点大的。例如在某些firefox的版本是可以抓取数据的,但在另外一些版本就不行,selenium在这两年的演化过程中,中途出现过对最新firefox各种报错、但对老版本firefox就正常,以及对老phantomjs不能抓取,最新版本phantomjs就OK的情况。当遇到各种很诡异的关于浏览器不能抓取问题的时候,需要考虑尝试不同的webdriver,以避开selenium对个别型号的浏览器支持不良的情况。
当网页上有ajax等动态元素时,webdriver.get(url)只会等待html和js文件加载完成,但不一定会等待js生成的元素都出现在页面源码中。使用xpath或者css选择器的时候,如果js产生的代码没有加载完成,就会报错,这种我们用开发者工具能发现的元素,但webdriver找不到的情况,通常都是因为等待时间不够造成的。通常有两种方法:
第一种隐式等待,优点是想法简单,缺点是不同的页面需要的加载时间不同,为了保证数据正确,需要取一个最大的等待时间,拖慢代码执行效率。python中的源码如下
第二种是显示等待。用于指定等待到页面加载到某些为真的可控条件,例如出现某个元素之后,就认为需要的页面内容已经加载完成了,python代码如下:
一切不上代码的演示都是耍流氓。
结合二、三两大步,通过模拟点击快速拿到cookie,虽然效率低,但可以减少数据包分析的时间以及解决搞不定ajax登陆验证的烦恼,然后继续用urllib2拼接cookie继续快速获取数据。分下面两步:
a. 从selenium中拿到cookie
b. 添加cookie给urllib2使用
方法1:使用CookieJar,可参考《Creating Custom Cookies for HTTP Requests》
方法2:直接拼凑一个名称是"Cookie"的header。
本文以python为编程语言介绍了爬虫登陆验证过程可以使用的两种方法:一个是数据包分析,另外一个是模拟点击。综合考虑开发效率,建议先用模拟点击的方法通过登陆验证,成功拿到cookie之后,拼凑一个Cookie-header,传递给urllib2进行常规调用。