前言
Crawlab 是一款受人欢迎的分布式通用爬虫管理平台,由 Crawlab 开发组 开发和维护。自去年 3 月份上线以来,Crawlab 因为极其强大的灵活性、简单精美的操作界面以及健壮而稳定稳定的功能表现,不断受到爬虫工程师和开发者的喜爱和好评,如今已经有了近 4k Github 标星和超过 8k Docker 下载。在最近的一次调研中,超过三分之一的参与调查者都表示已经将 Crawlab 应用于了生产环境。
对 Crawlab 还不了解的同学,可以参考以下相关文章或文档:
- Github Repo
- Crawlab 文档
- Crawlab Demo
- 爬虫管理平台Crawlab v0.4.2发布(文件管理)
- 爬虫管理平台Crawlab v0.4.1发布(可配置爬虫)
- 爬虫平台Crawlab核心原理--分布式架构
经过 8 个月的迭代和优化,Crawlab 已经变得更加稳定和易用,不过随之而来的也是用户的建议和反馈,其中一个比较大的痛点是爬虫的依赖安装。简单来说,由于 Crawlab 主要是由 Docker 来安装,基础镜像只有 Python 的一些与爬虫和 Crawlab 相关的库,如果需要安装一些爬虫必要的依赖,例如数据库操作库 pymysql
等等,就必须做一些 hack,例如上传一个安装依赖的特殊爬虫,或者以 Crawlab 镜像为基础,构建出包含需要的依赖的镜像。这两种方式,既不安全,也不方便和直观。
因此,在最新的版本 v0.4.3 中,我们发布了更方便的在界面上安装依赖的功能。下面我们介绍一下这个功能。
依赖安装
依赖安装是经常使用 Crawlab 经常需要的需求,目前的临时解决方案都是通过 hacking 的方式。而现在,我们的最新版本已经有比较成熟的解决方案,也就是在界面上操作安装依赖。在进入细节之前,我们先了解下一般爬虫工程师的主选编程语言。
哪个语言最受欢迎?
在开发依赖安装功能以前,我们首先需要确定哪(几)种语言是爬虫界中比较受欢迎的。我们猜测 Python 是主要的爬虫工程师用的语言,这是因为大红大紫的成熟的 Scrapy 爬虫框架以及 Python 的简单语法和丰富的生态。于是,我们做了一个小小的调查,调查问题为“您主要用什么语言编写爬虫?(多选)”。以下是调查结果。
语言 | 占比 |
---|---|
Python | 55.8% |
Golang | 12.9% |
Node.js | 11.7% |
Java | 11.0% |
PHP | 3.1% |
C/C++ | 1.8% |
C# | 1.2% |
Shell | 1.2% |
其他 | 1.2% |
可以看到,Python 是爬虫界的绝对霸主,超过一半的人选择用 Python 作为主要的爬虫编程语言。动态语言 Node.js 和静态语言 Golang、Java 各自平分秋色。这让我有些诧异,因为 Node.js 有爬虫神器 Puppeteer 来抓取动态内容,而且也编写也比静态语言 Golang 和 Java 更方便。这样的结果可能是因为,爬虫工程师有不少由后端工程师兼职,因此采用了比较熟悉的后端静态语言。
因此,Python 是我们这次更新绝对会支持的语言(这里的“支持”不代表其他语言不能运行,只是需要另外安装依赖)。其次,我们选择了 Node.js 作为第二个支持安装依赖的语言,因为它的灵活性同样很高。对其他语言例如 Golang 和 Java 这样的静态语言的依赖安装支持,我们将放到后面的版本再开发。
如何使用依赖安装
下面我们将介绍如何在 Crawlab 界面上使用依赖安装。
首先我们需要导航到节点列表页,点击一个节点的蓝色查看按钮(如下图),进入节点详情页。
进入节点详情页之后,点击“安装”标签,进入依赖安装页面。如果在搜索栏中搜索相关的依赖库,将得到相近的依赖列表。例如,Python 中可以得到 pip 的相关依赖。点击“安装”开始 pip install
,并稍等片刻,就会收到安装成功(或失败)的提示信息;如果该依赖已经在该节点上存在,则会显示“卸载”按钮,点击则可以开始卸载该依赖,相当于 pip uninstall
。当然,其他语言对应其所对应的包管理操作,例如 Node.js 对应 npm。
点击“查看已安装”,可以看到该节点上已安装的依赖以及其对应的版本,如下图。同样,点击“卸载”可以卸载该依赖。
由于 Python 是 Docker 镜像上预装的(待会儿会介绍如何在 Docker 上预装 Node.js)。点击 “Node.js” 标签,会看到提示说“Node.js 还没有安装,您是否打算安装它?”。点击“安装”按钮,后台会开始安装 nvm 和 Node.js 8.12 版本。然后就会看到跟 Python 一样的界面了。
Docker 中预装编程语言
为了方便爬虫开发者在 Docker 中的 Node.js 爬虫应用,我们开发了在 Docker 中配置预装 Node.js 的功能。只需要在启动的时候设置环境变量 CRAWLAB_SERVER_LANG_NODE
为 Y
,然后启动镜像就可以了。例如如下 docker-compose.yml
。
version: '3.3'
services:
master:
image: tikazyq/crawlab:latest
container_name: master
environment:
CRAWLAB_API_ADDRESS: "http://localhost:8000" # backend API address 后端 API 地址,设置为 http://<宿主机IP>:<端口>,端口为映射出来的端口
CRAWLAB_SERVER_MASTER: "Y" # whether to be master node 是否为主节点,主节点为 Y,工作节点为 N
CRAWLAB_MONGO_HOST: "mongo" # MongoDB host address MongoDB 的地址,在 docker compose 网络中,直接引用服务名称
CRAWLAB_REDIS_ADDRESS: "redis" # Redis host address Redis 的地址,在 docker compose 网络中,直接引用服务名称
CRAWLAB_SERVER_LANG_NODE: "Y" # 预安装 Node.js 语言环境
ports:
- "8080:8080" # frontend port mapping 前端端口映射
- "8000:8000" # backend port mapping 后端端口映射
depends_on:
- mongo
- redis
worker:
image: tikazyq/crawlab:latest
container_name: worker
environment:
CRAWLAB_SERVER_MASTER: "N"
CRAWLAB_MONGO_HOST: "mongo"
CRAWLAB_REDIS_ADDRESS: "redis"
CRAWLAB_SERVER_LANG_NODE: "Y" # 预安装 Node.js 语言环境
depends_on:
- mongo
- redis
mongo:
image: mongo:latest
restart: always
# volumes:
# - "/opt/crawlab/mongo/data/db:/data/db" # make data persistent 持久化
# ports:
# - "27017:27017" # expose port to host machine 暴露接口到宿主机
redis:
image: redis:latest
restart: always
# volumes:
# - "/opt/crawlab/redis/data:/data" # make data persistent 持久化
# ports:
# - "6379:6379" # expose port to host machine 暴露接口到宿主机
不足的地方
我知道开发者们会吐槽:为何不做上传 requirements.txt
或 package.json
批量安装的功能啊;为何不支持环境持久化,每次都要重新安装啊;为何不支持 Java 啊... 我知道这些都是很实用的功能,但 Crawlab 的开发向来都是遵从敏捷开发和精益打磨的原则,不会过度开发一个功能,优先保证可行性、可用性、健壮性和稳定性。因此,在验证了大家的使用情况后,我们会逐步完善这个功能,让其变得更加实用。
更新内容
以下是本次版本 v0.4.3 的更新详情。
功能 / 优化
- 依赖安装. 允许用户在平台 Web 界面安装/卸载依赖以及添加编程语言(暂时只有 Node.js)。
- Docker 中预装编程语言. 允许 Docker 用户通过设置
CRAWLAB_SERVER_LANG_NODE
为Y
来预装Node.js
环境. - 在爬虫详情页添加定时任务列表. 允许用户在爬虫详情页查看、添加、编辑定时任务. #360
- Cron 表达式与 Linux 一致. 将表达式从 6 元素改为 5 元素,与 Linux 一致.
- 启用/禁用定时任务. 允许用户启用/禁用定时任务. #297
- 优化任务管理. 允许用户批量删除任务. #341
- 优化爬虫管理. 允许用户在爬虫列表页对爬虫进行筛选和排序.
- 添加中文版
CHANGELOG
. - 在顶部添加 Github 加星按钮.
Bug 修复
产品规划
Crawlab 能发展到现在,离不开合理的产品规划。因此,在收集用户反馈的同时,我们也整理了比较重要的(至少我们认为比较重要的)功能,将它们安排在各个发版上。具体发版日期我们无法确定,但可以肯定的是,Crawlab 开发组 会逐步迭代产品,将产品打造得更加实用和便捷。
社区
如果您觉得 Crawlab 对您的日常开发或公司有帮助,请加作者微信 tikazyq1 并注明 "Crawlab",作者会将你拉入群。欢迎在 Github 上进行 star,以及,如果遇到任何问题,请随时在 Github 上提 issue。另外,欢迎您对 Crawlab 做开发贡献。