手把手教你写网络爬虫(3):开源爬虫框架对比

(点击上方公众号,可快速关注)


来源: 拓海

http://www.cnblogs.com/tuohai666/p/8861422.html


本系列:

  • 手把手教你写网络爬虫(1):网易云音乐歌单

  • 手把手教你写网络爬虫(2):迷你爬虫架构

手把手教你写网络爬虫(3):开源爬虫框架对比_第1张图片

Project Language Star Watch Fork
Nutch Java 1111 195 808
webmagic Java 4216 618 2306
WebCollector Java 1222 255 958
heritrix3 Java 773 141 428
crawler4j Java 1831 242 1136
Pyspider Python 8581 687 2273
Scrapy Python 19642 1405 5261

看到了吗?星星数排名第一的Scrapy比其他所有的加起来都要多,我仿佛听到他这样说:

手把手教你写网络爬虫(3):开源爬虫框架对比_第2张图片

手把手教你写网络爬虫(3):开源爬虫框架对比_第3张图片

手把手教你写网络爬虫(3):开源爬虫框架对比_第4张图片

手把手教你写网络爬虫(3):开源爬虫框架对比_第5张图片

手把手教你写网络爬虫(3):开源爬虫框架对比_第6张图片

手把手教你写网络爬虫(3):开源爬虫框架对比_第7张图片

手把手教你写网络爬虫(3):开源爬虫框架对比_第8张图片

手把手教你写网络爬虫(3):开源爬虫框架对比_第9张图片

手把手教你写网络爬虫(3):开源爬虫框架对比_第10张图片

手把手教你写网络爬虫(3):开源爬虫框架对比_第11张图片

优点:

  1. 极其灵活的定制化爬取。

  2. 社区人数多、文档完善。

  3. URL去重采用布隆过滤器方案。

  4. 可以处理不完整的HTML,Scrapy已经提供了selectors(一个在lxml的基础上提供了更高级的接口),可以高效地处理不完整的HTML代码。

缺点:

  1. 不支持分布式部署。

  2. 原生不支持抓取JavaScript的页面。

  3. 全命令行操作,对用户不友好,需要一定学习周期。

结论

篇幅有限,就先选择这三个最有代表性的框架进行PK。他们都有远超别人的优点,比如:Nutch天生的搜索引擎解决方案、Pyspider产品级的WebUI、Scrapy最灵活的定制化爬取。也都各自致命的缺点,比如Scrapy不支持分布式部署,Pyspider不够灵活,Nutch和搜索绑定。究竟该怎么选择呢?

我们的目标是做纯粹的爬虫,不是搜索引擎,所以先把Nutch排除掉,剩下人性化的Pyspider和高可定制的Scrapy。Scrapy的灵活性几乎能够让我们完成任何苛刻的抓取需求,它的“难用”也让我们不知不觉的研究爬虫技术。现在还不是享受Pyspider的时候,目前的当务之急是打好基础,应该学习最接近爬虫本质的框架,了解它的原理,所以把Pyspider也排除掉。

最终,理性的从个人的需求角度对比,还是Scrapy胜出!其实Scrapy还有更多优点:

  1. HTML, XML源数据选择及提取的原生支持。

  2. 提供了一系列在spider之间共享的可复用的过滤器(即 Item Loaders),对智能处理爬取数据提供了内置支持。

  3. 通过 feed导出 提供了多格式(JSON、CSV、XML),多存储后端(FTP、S3、本地文件系统)的内置支持。

  4. 提供了media pipeline,可以 自动下载 爬取到的数据中的图片(或者其他资源)。

  5. 高扩展性。您可以通过使用 signals ,设计好的API(中间件, extensions, pipelines)来定制实现您的功能。

  6. 内置的中间件及扩展为下列功能提供了支持:

    1. cookies and session 处理

    2. HTTP 压缩

    3. HTTP 认证

    4. HTTP 缓存

    5. user-agent模拟

    6. robots.txt

    7. 爬取深度限制

  7. 针对非英语语系中不标准或者错误的编码声明, 提供了自动检测以及健壮的编码支持。

  8. 支持根据模板生成爬虫。在加速爬虫创建的同时,保持在大型项目中的代码更为一致。

  9. 针对多爬虫下性能评估、失败检测,提供了可扩展的 状态收集工具 。

  10. 提供 交互式shell终端 , 为您测试XPath表达式,编写和调试爬虫提供了极大的方便。

  11. 提供 System service, 简化在生产环境的部署及运行。

  12. 内置 Telnet终端 ,通过在Scrapy进程中钩入Python终端,使您可以查看并且调试爬虫。

  13. Logging 为您在爬取过程中捕捉错误提供了方便。

  14. 支持 Sitemaps 爬取。

  15. 具有缓存的DNS解析器。

下一步

吹了半天的Scrapy,时间也到了,如果大家能够喜欢上它,学习的效率一定会成倍提升!下次我会为大家带来满满的干货,并完成更具挑战性的爬虫任务,我们下期再见!


看完本文有收获?请转发分享给更多人

关注「Python开发者」,提升Python技能

手把手教你写网络爬虫(3):开源爬虫框架对比_第12张图片

你可能感兴趣的:(手把手教你写网络爬虫(3):开源爬虫框架对比)