scrapinghub 部署scrapy爬虫

请首先注册scrapinghub,参见以下两篇文章:

  • 利用scrapinghub发布你的爬虫项目

  • 爬虫总结(三)-- cloud scrapy

未读完以上两篇文章请勿往下看!

如果安装了第三方库,请在scrapy根目录下,引入requirements.txt

PyMySQL==0.7.11
lxml==3.7.3
pyOpenSSL==17.0.0

如果你用的是python3版本,请对scrapinghub.yml做如下修改

projects:
    default: your-project-id  # your-project-id为项目id
stacks:
    default: scrapy:1.1-py3 # 这个注意,如果是python2.7 则写成scrapy:1.1
requirements_file: requirements.txt  #第三方库时引用

2.每次修改都需要重新部署到scrapinghub:

shub deploy ProjectID

你可能感兴趣的:(scrapinghub 部署scrapy爬虫)