Celery实现分布式定时任务并开启监控(Celery-Beat、Celery-Once、flower)

Celery实现分布式定时任务并开启监控(Celery-Beat、Celery-Once、flower)

原理:celery-beat作为任务调度,当达到定时时间时,beat将任务id装载进rabbitmq队列中,worker在队列的另一端取出任务id,并匹配当前注册的任务。如果没有注册,那么会报错。除此之外,worker还会通过celery-once来尝试从redis中获取分布式锁,只有获取到锁的worker才会执行这个任务。worker执行成功或者失败通过flower监控

Celery实现分布式定时任务并开启监控(Celery-Beat、Celery-Once、flower)_第1张图片

 

1.环境准备

pip install celery
pip install flower
pip install celery_once

 

2.代码结构

代码结构如下:

Celery实现分布式定时任务并开启监控(Celery-Beat、Celery-Once、flower)_第2张图片

任务函数sendDingTest.py(钉钉机器人):

from dingtalkchatbot.chatbot import DingtalkChatbot
from start import celery_app
from datetime import datetime
import socket
from celery_once import QueueOnce

WEB_HOOK_SPIDER = '在钉钉机器人页面获取web_hook'


# 基于任务名及传递的参数值来确认是否是同一个任务
@celery_app.task(base=QueueOnce, once={'graceful': True})
def send_ding_test(arg1, arg2):
    dingding = DingtalkChatbot(WEB_HOOK_SPIDER)
    arg3 = arg1 + arg2
    dingding.send_text(msg="城市数据定时任务测试-{},{} 执行时刻:{}".format(arg3, socket.gethostname(), datetime.now().strftime("%Y-%m-%d %H:%M:%S")))

配置文件config.py:

from celery.schedules import crontab


class celeryConfig(object):
    # accept_content = ['json']  # 可以是set,list,tuple,pickle,yaml
    # result_accept_content = ['json']
    timezone = 'Asia/Shanghai'  # 中国只有两个时区,一个上海,一个乌鲁木齐
    broker_url = "amqp://user:password@ip:port/vhost"
    backend = ""
    include = ['jobs.sendDingTest']  # worker启动时要导入的任务模块,需要在这里添加,以便worker能够找到我们的任务
    beat_schedule = {
        'add-every-monday-morning':
            {
                'task': 'jobs.sendDingTest.send_ding_test', # 这里要写全路径,否则worker找不到
                'schedule': crontab(minute="*/2"),
            'args': (16, 16),
            },
    }
    # celery-once配置
    ONCE = {
        'backend': 'celery_once.backends.Redis',
        'settings': {
            'url': 'redis://ip:port/database',
            'default_timeout': 60 * 60 # 分布式锁的默认超时时间
        }
    }

启动函数start.py:

from celery import Celery
import os

# windows平台需要设置,
os.environ.setdefault('FORKED_BY_MULTIPROCESSING', '1')


celery_app = Celery()
celery_app.config_from_object('config.celeryConfig')

 

3.启动定时任务与监控

# 注意:beat,worker,flower都可以不在同一台服务器上,分布开的话,需要在其他服务器上copy一份代码
# 开启beat(start是文件名)
celery -A start.celery_app beat
# 开启worker
celery -A start.celery_app worker -c 1 -l info
# 开启flower(默认地址是localhost:5555)
celery -A start flower

以下是flower页面,可以查看worker数量、消息队列(需要rabbitmq开启rabbitmq_management)和任务执行结果等。

Celery实现分布式定时任务并开启监控(Celery-Beat、Celery-Once、flower)_第3张图片

4.文档参考

celery-once文档

flower文档

celery官方文档

你可能感兴趣的:(Celery实现分布式定时任务并开启监控(Celery-Beat、Celery-Once、flower))