详解Python分布式爬虫原理及应用——scrapy-redis

之前写的爬虫,无论是单线程,多线程异步等都是在自己的电脑上运行。
好处是单个爬虫方便管理,调试;但当有了大量的URL需要爬取,用分布式爬虫无疑是最好的选择。
我的测试代码以实习僧网为目标网站,约2w个URL,单个scrapy与3个scrapy-redis分布式时间比约为 5: 1
这篇文章会通过一个例子详细介绍scrapy-redis原理及其实现过程。

0.安装scrapy_redis

windows、ubuntu安装请参看:http://blog.fens.me/linux-redis-install/
centos7安装请参看:https://www.cnblogs.com/zjl6/p/6742673.html
注意:建议设置redis密码进行远程连接,或者添加安全组规则ip白名单,直接暴露端口容易被黑。

1.首先介绍一下:scrapy-redis框架

scrapy-redis:一个三方的基于redis的分布式爬虫框架,配合scrapy使用,让爬虫具有了分布式爬取的功能。
github地址: https://github.com/darkrho/scrapy-redis

一篇知乎介绍《scrapy-redis 和 scrapy 有什么区别?》

2.再介绍一下:分布式原理

scrapy-redis实现分布式,其实从原理上来说很简单,这里为描述方便,我们把自己的核心服务器称为master,而把用于跑爬虫程序的机器称为slave。

我们知 道,采用scrapy框架抓取网页,我们需要首先给定它一些start_urls,爬虫首先访问start_urls里面的url,再根据我们的具体逻辑,对里面的元素、或者是其他的二级、三级页面进行抓取。而要实现分布式,我们只需要在这个starts_urls里面做文章就行了。

我们在master上搭建一个redis数据库(注意这个数据库只用作url的存储,不关心爬取的具体数据,不要和后面的mongodb或者mysql混淆),并对每一个需要爬取的网站类型,都开辟一个单独的列表字段。通过设置slave上scrapy-redis获取url的地址为master地址。这样的结果就是,尽管有多个slave,然而大家获取url的地方只有一个,那就是服务器master上的redis数据库。

并且,由于scrapy-redis自身的队列机制,slave获取的链接不会相互冲突。这样各个slave在完成抓取任务之后,再把获取的结果汇总到服务器上(这时的数据存储不再在是redis,而是mongodb或者 mysql等存放具体内容的数据库了)

这种方法的还有好处就是程序移植性强,只要处理好路径问题,把slave上的程序移植到另一台机器上运行,基本上就是复制粘贴的事情。

3.分布式爬虫的实现:

1.使用两台机器,一台是win10,一台是ubuntu16.04,分别在两台机器上部署scrapy来进行分布式抓取一个网站

2.ubuntu16.04的ip地址为39.106.155.194,用来作为redis的master端,win10的机器作为slave

3.master的爬虫运行时会把提取到的url封装成request放到redis中的数据库:“dmoz:requests”,并且从该数据库中提取request后下载网页,再把网页的内容存放到redis的另一个数据库中“dmoz:items”

4.slave从master的redis中取出待抓取的request,下载完网页之后就把网页的内容发送回master的redis

5.重复上面的3和4,直到master的redis中的“dmoz:requests”数据库为空,再把master的redis中的“dmoz:items”数据库写入到mongodb中

6.master里的reids还有一个数据“dmoz:dupefilter”是用来存储抓取过的url的指纹(使用哈希函数将url运算后的结果),是防止重复抓取的

(注:master与salve已经安装了MongoDB,Redis,scrapy,MySQL。)

4.完整实现过程

1、完成编码,多复制几份,把其中一份放到ubuntu作为master,其他几份留在windows作slave
2、启动master端scrapy,向master的redis中添加url,添加完成后master会继续运行爬虫,从redis取url进行抓取,数据存入master mongodb
3、启动多个slave爬虫,slave会远程向master redis中取url采集数据,采集数据会实时存入master mongodb中。


新建一个scrapy项目,完成常规的爬虫编码。


详解Python分布式爬虫原理及应用——scrapy-redis_第1张图片
  • 开始改动代码实现分布式爬虫,首先引入RedisSpider,把原来继承自scrapy.spider改为继承RedisSpider。

  • 添加redis_key = 'shixisheng:start_urls' ;这里的redis_key实际上就是一个变量名,master爬虫爬到的所有URL都会保存到redis中这个名为“readcolorspider:start_urls”的列表下面,slave爬虫同时也会从这个列表中读取后续页面的URL。这个变量名可以任意修改。

  • 修改设置settings.py
    ①Scheduler,首先是Scheduler的替换,这个东西是Scrapy中的调度员。在settings.py中添加以下代码:
    SCHEDULER="scrapy_redis.scheduler.Scheduler"
    ②去重
    DUPEFILTER_CLASS="scrapy_redis.dupefilter.RFPDupeFilter"
    ③不清理Redis队列
    SCHEDULER_PERSIST=True
    如果这一项为True,那么在Redis中的URL不会被Scrapy_redis清理掉,这样的好处是:爬虫停止了再重新启动,它会从上次暂停的地方开始继续爬取。但是它的弊端也很明显,如果有多个爬虫都要从这里读取URL,需要另外写一段代码来防止重复爬取。
    如果设置成了False,那么Scrapy_redis每一次读取了URL以后,就会把这个URL给删除。这样的好处是:多个服务器的爬虫不会拿到同一个URL,也就不会重复爬取。但弊端是:爬虫暂停以后再重新启动,它会重新开始爬。
    ④设置redis地址
    启用本地redis: REDIS_URL = 'redis://127.0.0.1:6379'
    启用远程redis: REDIS_URL = 'redis://39.106.155.194:6379'

  • 其他设置(可选)
    爬虫请求的调度算法
    爬虫的请求调度算法,有三种情况可供选择:
    ①队列
    SCHEDULER_QUEUE_CLASS='scrapy_redis.queue.SpiderQueue'
    如果不配置调度算法,默认就会使用这种方式。它实现了一个先入先出的队列,先放进Redis的请求会优先爬取。
    ②栈
    SCHEDULER_QUEUE_CLASS='scrapy_redis.queue.SpiderStack'
    这种方式,后放入到Redis的请求会优先爬取。
    ③优先级队列
    SCHEDULER_QUEUE_CLASS='scrapy_redis.queue.SpiderPriorityQueue'
    这种方式,会根据一个优先级算法来计算哪些请求先爬取,哪些请求后爬取。这个优先级算法比较复杂,会综合考虑请求的深度等各个因素。

呼~~配置完这些,爬虫就可以正常工作了,slave从master取url采集数据,当master redis中"shixisheng:start_urls"和"slave_1:requests"都为空时,爬虫会暂停等待,直到redis中有新的url。若再无新url添加进来,就可以在此刻结束程序。

分布式爬虫状态与对应的redis中集合的变化

详解Python分布式爬虫原理及应用——scrapy-redis_第2张图片
image.png

该聊聊数据存储的问题了

两种方法:

  • 1.各存各的,master仅提供待爬取url,slave采集后数据存在slave本地,最后把数据汇总即可,这样一来数据就存在了master一部分,各slave一部分,如果slave比较多,数据的汇总也比较麻烦。
  • 2.各个slave采集数据的同时把数据实时的发送到master,这样数据只存在于master,而slave就充当了真正意义上的“slave”————“干完就走,两袖清风”

显然第二种办法比较好,master即master,slave即slave。
该项目数据库选用了mongodb。(也实现了存Mysql,下文会讲)
针对不同类型数据可以根据具体需求来选择不同的数据库存储。结构化数据可以使用mysql节省空间,非结构化、文本等数据可以采用mongodb等非关系型数据提高访问速度。具体选择可以自行百度谷歌,有很多关于sql和nosql的对比文章。

写入master mongodb代码(piplines.py)

详解Python分布式爬虫原理及应用——scrapy-redis_第3张图片
save to master mongodb

写入slave mysql代码(piplines.py)

详解Python分布式爬虫原理及应用——scrapy-redis_第4张图片
save to slave mysql

上图是save to slave mysql ,如需save to master请在MySQLStorePipeline更改数据库连接配置。

settings.py文件

详解Python分布式爬虫原理及应用——scrapy-redis_第5张图片
image.png

master mongodb部分截图:

详解Python分布式爬虫原理及应用——scrapy-redis_第6张图片
master mongodb

本项目已上传到github,欢迎友情加star: https://github.com/TimeAshore/scrapy_redis_sxs/

本人也比较小白 学术尚浅,如有什么问题,欢迎提出来共同进步。

参考文章:
http://blog.csdn.net/howtogetout/article/details/51633814
https://www.cnblogs.com/zjl6/p/6742673.html
http://blog.csdn.net/zhou_1997/article/details/52624468
http://python.jobbole.com/86328/

redis基本操作


进入本地redis: 
redis-cli    (linux)
在Redis安装目录运行redis-cli   (win)
连接到远程redis: 
redis-cli -h 39.106.155.194 -p 6379    (linux)
在Redis安装目录运行redis-cli -h 39.106.155.194 -p 6379   (win)
清空redis:flushdb
查看集合:keys *

转载需注明原文章地址:https://www.jianshu.com/p/674d90294f9c

你可能感兴趣的:(详解Python分布式爬虫原理及应用——scrapy-redis)