scrapyd和scrapyd-client使用教程

scrapyd是一个用于部署和运行scrapy爬虫的程序,它允许你通过JSON API来部署爬虫项目和控制爬虫运行

项目和版本

scrapyd可以管理多个项目,并且每个项目允许有多个版本,但是只有最新的版本会被用来运行爬虫.

最方便的版本管理就是利用VCS工具来记录你的爬虫代码,版本比较不是简单的通过字母排序,而是通过智能的算法,和distutils一样,例如: r10比r9更大

工作原理

scrapyd是一个守护进程,监听爬虫的运行和请求,然后启动进程来执行它们

启动服务

# 注意,启动scrapyd的目录会保存整个scrapyd运行期间生成的log, item文件,所以请选择合适的位置运行该命令$ scrapyd

调度爬虫运行

$ curl http://localhost:6800/schedule.json -dproject=myproject -dspider=spider2{"status":"ok","jobid":"26d1b1a6d6f111e0be5c001e648c57f8"}

web接口

http://localhost:6800/

安装

需求

Python 2.6+

Twisted 8.0+

Scrapy 0.17+

安装

$ pip install scrapyd

$ sudo apt-get install scrapyd

项目部署

直接使用scrapyd-client提供的scrapyd-deploy工具.

安装scrapyd-client

$ pip install scrapyd-client

scrapyd-client工作原理

打包项目,然后调用scrapyd的addversion.json接口部署项目

配置服务器信息

为了方便叙述,整个部署流程以部署豆瓣电影爬虫为例。 配置服务器和项目信息, 需要编辑scrapy.cfg文件,添加如下内容

[deploy:server-douban]url=http://localhost:6800/

其中server-douban为服务器名称, url为服务器地址,即运行了scrapyd命令的服务器。

检查配置, 列出当前可用的服务器

$ scrapyd-deploy -lserver-douban        http://localhost:6800/

列出服务器上所有的项目, 需要确保服务器上的scrapyd命令正在执行,否则会报连接失败.首次运行的话,可以看到只有一个default项目

$ scrapyd-deploy -L server-doubandefault

打开http://localhost:6800/, 可以看到Available projects: default

部署项目

在爬虫项目根目录下执行下面的命令, 其中target为上一步配置的服务器名称,project为项目名称,可以根据实际情况自己指定。

scrapyd-deploy -p

$ scrapyd-deploy server-douban -p douban-moviesPacking version1446102534Deploying to project"douban-movies"in http://localhost:6800/addversion.jsonServer response(200):{"status":"ok","project":"douban-movies","version":"1446102534","spiders":1,"node_name":"sky"}

部署操作会打包你的当前项目,如果当前项目下有setup.py文件,就会使用它,没有的会就会自动创建一个。(如果后期项目需要打包的话,可以根据自己的需要修改里面的信息,也可以暂时不管它). 从返回的结果里面,我们可以看到部署的状态,项目名称,版本号和爬虫个数,以及当前的主机名称.

检查部署结果

$ scrapyd-deploy -L server-doubandefaultdouban-movies

或再次打开http://localhost:6800/, 也可以看到Available projects: default, douban-movies

我们也可以把项目信息写入到配置文件中,部署时就不用指定项目信息,编辑scrapy.cfg文件,添加项目信息

[deploy:server-douban]url=http://localhost:6800/project=douban-movies

下次部署可以直接执行

$ scrapyd-deploy

如果配置了多个服务器的话,可以将项目直接部署到多台服务器

$ scrapyd-deploy -a -p

指定版本号

默认情况下, scrapyd-deploy使用当前的时间戳作为版本号,我们可以使用--version来指定版本号

scrapyd-deploy -p --version

版本号的格式必须满足LooseVersion

如:

# 设置版本号为0.1$ scrapyd-deploy server-douban -p douban-movies --version0.1Packing version0.1Deploying to project"douban-movies"in http://localhost:6800/addversion.jsonServer response(200):{"status":"ok","project":"douban-movies","version":"0.1","spiders":1,"node_name":"sky"}

如果使用了Mercurial或Git管理代码, 可以使用HG和GIT作为version的参数,也可以将它写入scrapy.cfg文件,那么就会使用当前的reversion作为版本号。

[deploy:target]...version=GIT

$ cat scrapy.cfg...[deploy:server-douban]url=http://localhost:6800/project=douban-moviesversion=GIT

# 当前版本号为r7-master

$ scrapyd-deploy server-douban -p douban-movies fatal: No names found, cannot describe anything.Packing version r7-masterDeploying to project"douban-movies"in http://localhost:6800/addversion.jsonServer response(200):{"status":"ok","project":"douban-movies","version":"r7-master","spiders":1,"node_name":"sky"}

关于从GIT获取版本号的方式,可以参看scrapyd-client源码部分

elifversion=='GIT':p=Popen(['git','describe'],stdout=PIPE)d=p.communicate()[0].strip('\n')ifp.wait()!=0:p=Popen(['git','rev-list','--count','HEAD'],stdout=PIPE)d='r%s'%p.communicate()[0].strip('\n')p=Popen(['git','rev-parse','--abbrev-ref','HEAD'],stdout=PIPE)b=p.communicate()[0].strip('\n')return'%s-%s'%(d,b)

服务器添加认证信息

我们也可以在scrapyd前面加一层反向代理来实现用户认证。以nginx为例, 配置nginx

server{listen6801;location/{proxy_passhttp://127.0.0.1:6800/;auth_basic"Restricted";auth_basic_user_file/etc/nginx/htpasswd/user.htpasswd;}}

/etc/nginx/htpasswd/user.htpasswd里设置的用户名和密码都是test 修改配置文件,添加用户信息信息

...[deploy:server-douban]url = http://localhost:6801/project = douban-moviesversion = GITusername = testpassword = test

注意上面的url已经修改为了nginx监听的端口。

提醒: 记得修改服务器上scrapyd的配置bind_address字段为127.0.0.1,以免可以从外面绕过nginx, 直接访问6800端口。 关于配置可以参看本文后面的配置文件设置.

API

scrapyd的web界面比较简单,主要用于监控,所有的调度工作全部依靠接口实现. 具体可以参考官方文档

常用接口:

调度爬虫

$ curl http://localhost:6800/schedule.json -dproject=myproject -dspider=somespider

# 带上参数

$ curl http://localhost:6800/schedule.json -dproject=myproject -dspider=somespider -dsetting=DOWNLOAD_DELAY=2-darg1=val1

取消

$ curl http://localhost:6800/cancel.json -dproject=myproject -djob=6487ec79947edab326d6db28a2d86511e8247444

列出项目

$ curl http://localhost:6800/listprojects.json

列出版本

$ curl http://localhost:6800/listversions.json?project=myproject

列出爬虫

$ curl http://localhost:6800/listspiders.json?project=myproject

列出job

$ curl http://localhost:6800/listjobs.json?project=myproject

删除版本

$ curl http://localhost:6800/delversion.json -dproject=myproject -dversion=r99

删除项目

$ curl http://localhost:6800/delproject.json -dproject=myproject

配置文件

scrapyd启动的时候会自动搜索配置文件,配置文件的加载顺序为

/etc/scrapyd/scrapyd.conf

/etc/scrapyd/conf.d/*

scrapyd.conf

~/.scrapyd.conf

最后加载的会覆盖前面的设置

默认配置文件如下, 可以根据需要修改

[scrapyd]eggs_dir=eggslogs_dir=logsitems_dir=itemsjobs_to_keep=5dbs_dir=dbsmax_proc=0max_proc_per_cpu=4finished_to_keep=100poll_interval=5http_port=6800debug=offrunner=scrapyd.runnerapplication=scrapyd.app.applicationlauncher=scrapyd.launcher.Launcher[services]schedule.json=scrapyd.webservice.Schedulecancel.json=scrapyd.webservice.Canceladdversion.json=scrapyd.webservice.AddVersionlistprojects.json=scrapyd.webservice.ListProjectslistversions.json=scrapyd.webservice.ListVersionslistspiders.json=scrapyd.webservice.ListSpidersdelproject.json=scrapyd.webservice.DeleteProjectdelversion.json=scrapyd.webservice.DeleteVersionlistjobs.json=scrapyd.webservice.ListJobs

关于配置的各个参数具体含义,可以参考官方文档

你可能感兴趣的:(scrapyd和scrapyd-client使用教程)