Python爬虫之Scrapy框架系列(23)——分布式爬虫scrapy_redis浅实战【XXTop250部分爬取】
目录:1.实战讲解(XXTop250完整信息的爬取):1.1使用之前做的完整的XXTOP250项目,但是设置为只爬取一页(共25个电影),便于观察1.2配置settings文件中使用scrapy_redis的必要配置,并使用公共redsi数据存储区域(通过使用特定管道实现)1.3注意:上述settings.py配置中有个可选项SCHEDULER_PERSIST,作用是决定清理还是不清理redis队