scrapy下爬虫的暂定与重启

首先要有一个scrapy项目

在cmd上cd 进入项目

然后在项目目录下创建 记录文件:remain/001
(remain与spider同级)
然后输入:scrapy crawl zhihu -s JOBDIR=remain/001

回车运行就行了

按ctrl+c 暂停

继续运行只要再次输入:scrapy crawl zhihu -s JOBDIR=remain/001就行了

需要重新爬取就换个文件 002就行了

你可能感兴趣的:(scrapy下爬虫的暂定与重启)