scrapyd及gerapy的使用及docker-compse部署

一、scrapyd的介绍

scrapyd是一个用于部署和运行scrapy爬虫的程序,它允许你通过JSON API(也即是web api)来部署爬虫项目和控制爬虫运行,scrapyd是一个守护进程,监听爬虫的运行和请求,然后启动进程来执行它们

  1. scrapyd的安装
scrapyd服务端: pip install scrapyd
scrapyd客户端: pip install scrapyd-client
  1. 启动scrapyd服务

在scrapy项目路径下 启动scrapyd的命令:sudo scrapyd 或 scrapyd。启动之后就可以打开本地运行的scrapyd,浏览器中访问本地6800端口可以查看scrapyd的监控界面
scrapyd及gerapy的使用及docker-compse部署_第1张图片
scrapyd及gerapy的使用及docker-compse部署_第2张图片

  • 点击Job可以查看任务监控
    scrapyd及gerapy的使用及docker-compse部署_第3张图片
  1. 通过scrapyd部署scrapy项目
  • 配置需要部署的项目:编辑需要部署的项目的scrapy.cfg文件(需要将哪一个爬虫部署到scrapyd中,就配置该项目的该文件)

scrapyd及gerapy的使用及docker-compse部署_第4张图片

  • 部署项目到scrapyd

同样在scrapy项目路径下执行:

scrapyd-deploy 部署名(配置文件中设置的名称) -p 项目名称
以上面配置文件为例子:scrapyd-deploy Baidu -p my_spider 

scrapyd及gerapy的使用及docker-compse部署_第5张图片

  1. 管理项目

启动项目:

curl http://localhost:6800/schedule.json -d project=project_name -d spider=spider_name

这里就可以看到使用web api调度有多么麻烦了,于是引入下面的gerapy

二、gerapy

  1. 什么是gerapy

Gerapy 是一款分布式爬虫管理框架,支持 Python 3,基于 Scrapy、Scrapyd、Scrapyd-Client、Scrapy-Redis、Scrapyd-API、Scrapy-Splash、Jinjia2、Django、Vue.js 开发,Gerapy 可以帮助我们:​

  1. 更方便地控制爬虫运行
  2. 更直观地查看爬虫状态
  3. 更实时地查看爬取结果
  4. 更简单地实现项目部署
  5. 更统一地实现主机管理

通俗的解释:Gerapy 的最主要的目标是将 Scrapyd 的命令行操作转化为直观的 Web 点击操作。它提供了一个可视化的 Web 界面,让用户通过界面轻松地进行 Scrapy 项目的管理、监控和部署,而不必直接使用 Scrapyd 的命令行

  1. Gerapy的安装
  • 执行如下命令,等待安装完毕
​ pip3 install gerapy
  • 验证gerapy是否安装成功

​ 在终端中执行 gerapy 会出现如下信息

Usage:​ gerapy init [--folder=]​ gerapy migrate​ gerapy createsuperuser​ gerapy runserver []`
  1. Gerapy配置启动
  • 新建一个项目:gerapy init

​ 执行完该命令之后会在当前目录下生成一个gerapy文件夹,进入该文件夹,会找到一个名为projects的文件夹

scrapyd及gerapy的使用及docker-compse部署_第6张图片

对数据库进行初始化(在gerapy目录中操作),执行如下命令

​ gerapy migrate

​ 对数据库初始化之后会生成一个SQLite数据库,数据库保存主机配置信息和部署版本等​
scrapyd及gerapy的使用及docker-compse部署_第7张图片

  1. 启动 gerapy服务:​ gerapy runserver

​此时启动gerapy服务的这台机器的8000端口上开启了Gerapy服务,在浏览器中输入http://localhost:8000就能进入Gerapy管理界面,在管理界面就可以进行主机管理和界面管理
scrapyd及gerapy的使用及docker-compse部署_第8张图片

  1. 通过Gerapy配置管理scrapy项目
  • 添加主机
    scrapyd及gerapy的使用及docker-compse部署_第9张图片
    需要添加 IP、端口,以及名称,点击创建即可完成添加,点击返回即可看到当前添加的 Scrapyd 服务列表,创建成功后,我们可以在列表中查看已经添加的服务

  • 执行爬虫,就点击调度.然后运行. (前提是: 我们配置的scrapyd中,已经发布了爬虫.)

scrapyd及gerapy的使用及docker-compse部署_第10张图片
scrapyd及gerapy的使用及docker-compse部署_第11张图片

  • 配置Projects.我们可以将scarpy项目直接放到 /gerapy/projects下

scrapyd及gerapy的使用及docker-compse部署_第12张图片
scrapyd及gerapy的使用及docker-compse部署_第13张图片
点击部署点击部署按钮进行打包和部署,在右下角我们可以输入打包时的描述信息,类似于 Git 的 commit 信息,然后点击打包按钮,即可发现 Gerapy 会提示打包成功,同时在左侧显示打包的结果和打包名称。

scrapyd及gerapy的使用及docker-compse部署_第14张图片
scrapyd及gerapy的使用及docker-compse部署_第15张图片

  • 选择一个站点,点击右侧部署,将该项目部署到该站点上

scrapyd及gerapy的使用及docker-compse部署_第16张图片
来到clients界面,找到部署该项目的节点,点击调度
scrapyd及gerapy的使用及docker-compse部署_第17张图片
scrapyd及gerapy的使用及docker-compse部署_第18张图片

三、基于docker-compose的方式

docker-compose的优势就不说了,直接贴文件,应该有人需要的:

version: '3'

services:
  scrapyd:
    container_name: scrapyd
    image: germey/scrapyd:latest
    #network_mode: "host"
    ports:
         - "6800:6800"
    volumes:
         - /opt/docker/scrapyd_gerapy/scrapyd/app:/app
    restart: always

  gerapy:
    container_name: gerapy
    image: germey/gerapy:latest
    #environment:
    # - GERAPY_PORT=8001(有大佬知道如何覆盖镜像里的默认端口麻烦告知一下)
        #network_mode: "host"
    ports:
             - "8001:8000"
    volumes:
      - /opt/docker/scrapyd_gerapy/gerapy:/app/gerapy
    depends_on:
      - scrapyd
    restart: always

你可能感兴趣的:(#,docker,容器,运维)