关注公众号“轻松学编程”了解更多。
【官网】http://www.celeryproject.org/
Celery 是一个强大的分布式任务队列,它可以让任务的执行完全脱离主程序,甚至可以被分配到其他主机上运行。我们通常使用它来实现异步任务( async task )和定时任务( crontab )。
架构组成如图:
异步任务通常在业务逻辑中被触发并发往任务队列;
定时任务由 Celery Beat 进程周期性地将任务发往任务队列。
Broker,即为任务调度队列,接收任务生产者发来的消息(即任务),将任务存入队列。
Celery 本身不提供队列服务,官方推荐使用 RabbitMQ 和 Redis 等。
Worker 是执行任务的处理单元,它实时监控消息队列,获取队列中调度的任务,并执行它。
Backend 用于存储任务的执行结果,以供查询。同消息中间件一样,存储也可使用RabbitMQ, Redis 和 MongoDB 等。
MQ全称为Message Queue。
消息队列(MQ)是不同的应用程序相互通信的一种方法。
MQ是消费者-生产者模型的一个典型的代表,一端往消息队列中不断写入消息,而另一端则可以读取队列中的消息。
假设已经有了一个Django项目(我的项目名是MySites),下面演示如何使用Celery实现异步任务。
pip install celery
pip install django-celery
pip install redis==2.10.6
pip install django_celery_beat
注意:如果出现以下错误,一般是celery版本不对,重新安装较高版本即可。
Running django in virtualenv - ImportError: No module name django.core.management
我使用Redis作为消息队列。
在settings.py中增加:
#django-celery
import djcelery
djcelery.setup_loader()
#使用本地redis服务器中的0号数据库,redis密码为123456
BROKER_URL = 'redis://:[email protected]:6379/0'
CELERYBEAT_SCHEDULER = 'djcelery.schedulers.DatabaseScheduler'
CELERY_RESULT_BACKEND = 'redis://:[email protected]:6379/1'
CELERY_ENABLE_UTC = False
CELERY_TIMEZONE = 'Asia/Shanghai'
CELERY_TASK_RESULT_EXPIRES = 10
CELERYD_LOG_FILE = BASE_DIR + "/logs/celery/celery.log"
CELERYBEAT_LOG_FILE = BASE_DIR + "/logs/celery/beat.log"
CELERY_ACCEPT_CONTENT = ['pickle', 'json', 'msgpack', 'yaml']
其中,当djcelery.setup_loader()运行时,Celery便会去查看INSTALLD_APPS下包含的所有app目录中的tasks.py文件,找到标记为task的方法,将它们注册为celery_task。
BROKER_URL和CELERY_RESULT_BACKEND分别指代你的Broker的代理地址以及Backend(result store)数据存储地址。
在Django中如果没有设置backend,会使用其默认的后台数据库用来存储数据。
注册celery应用:
INSTALLED_APPS = [
#其它应用
...
#celery应用
'djcelery',
]
在项目中Mysites下创建celery.py文件(与settings.py同级)
内容为:
from celery import Celery
from django.conf import settings
import os
# 为celery设置环境变量, 改为你项目的settings
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'MySites.settings')
# 创建应用
app = Celery('mysites')
# 配置应用
app.conf.update(
# 本地Redis服务器
BROKER_URL=settings.BROKER_URL,
)
app.autodiscover_tasks(settings.INSTALLED_APPS)
在子应用app下创建tasks.py:
内容为:
from MySites.celery import app
@app.task
def start_running(info):
print(info)
print('--->>开始执行任务<<---')
print('比如发送短信或邮件')
print('>---任务结束---<')
在views.py中增加需要执行的异步任务,比如:
from SitesApp.tasks import start_running
#celery测试
class CeleryTask(View):
def get(self, request):
print('>=====开始发送请求=====<')
start_running.delay('发送短信')
# start_running.apply_async(('发送短信',), countdown=10) # 10秒后再执行异步任务
return HttpResponse(' 请求已发送
')
其实关键代码就一条start_running.delay(参数)
,当执行这条代码时,系统会把tasks.py中的start_running函数推迟执行,即放入消息队列中。
系统相当于跳过start_running.delay('发送短信')
执行后面的语句,这就是异步任务。
from SitesApp import views
urlpatterns = [
#其它url
...
#celery测试url
url('^celery/',views.CeleryTask.as_view()),
]
在Terminal中输入:
python manage.py runserver
在另一个Terminal中:
celery -A MySites worker --loglevel=DEBUG
Celery提供了一个工具flower,将各个任务的执行情况、各个worker的健康状态进行监控并以可视化的方式展现,如下图所示:
安装flower:
pip install flower
启动flower(默认会启动一个webserver,端口为5555):
在另一个Terminal中:
python manage.py celery flower
3.进入http://localhost:5555即可查看。
错误1:
Celery ValueError: not enough values to unpack (expected 3, got 0)
看别人描述大概就是说win10上运行celery4.x就会出现这个问题,解决办法如下,原理未知:
先安装一个``eventlet`
pip install eventlet
启动worker时加上参数-P eventlet
celery -A MySites worker --loglevel=DEBUG -P eventlet
注册django_celery_beat应用:
INSTALLED_APPS = [
#其它应用
...
#django_celery_beat应用
'django_celery_beat',
]
__init__()
from __future__ import absolute_import
from MySites.celery import app as celery_app
import pymysql
pymysql.install_as_MySQLdb()
修改项目目录(和settings.py)同级的celery.py:
from __future__ import absolute_import
import os
from celery import Celery, platforms
from django.conf import settings
# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'MySites.settings')
# MySites主应用名
app = Celery('mysites')
platforms.C_FORCE_ROOT = True
# 配置应用
app.conf.update(
# 本地Redis服务器
BROKER_URL=settings.BROKER_URL,
)
app.config_from_object('django.conf:settings')
app.autodiscover_tasks(settings.INSTALLED_APPS)
@app.task(bind=True)
def debug_task(self):
print('Request: {0!r}'.format(self.request))
我使用xadmin作为后台管理。增加以下代码:
#adminx.py
from __future__ import absolute_import, unicode_literals
from djcelery.models import (
TaskState, WorkerState,
PeriodicTask, IntervalSchedule, CrontabSchedule,
)
#celery
xadmin.site.register(IntervalSchedule) # 存储循环任务设置的时间
xadmin.site.register(CrontabSchedule) # 存储定时任务设置的时间
xadmin.site.register(PeriodicTask) # 存储任务
xadmin.site.register(TaskState) # 存储任务执行状态
xadmin.site.register(WorkerState) # 存储执行任务的worker
from __future__ import absolute_import
from MySites.celery import app
from celery import task, shared_task
@app.task
def start_running(info):
print(info)
print('--->>开始执行任务<<---')
print('比如发送短信或邮件')
print('>---任务结束---<')
@task
def pushMsg(uid,msg):
print('推送消息',uid,msg)
return True
@shared_task
def add(x,y):
print('加法:',x + y)
return x + y
@shared_task
def mul(x, y):
print('乘法',x*y)
return x * y
python manage.py makemigrations
python manage.py migrate
python manage.py createsuperuser
python manage.py runserver
在浏览器打开http://127.0.0.1:10501/xadmin/
Crontabs:定时任务执行时间;
Intervals:简单的间隔执行时间,比如每10秒执行一次;
Periodic tasks:配置定时任务;
Tasks:任务监控;
Workers:运行的worker。
配置执行时间:
# 启动
#linux下
celery -A MySites worker -B # MySites为celery和setting所在文件夹名
#Windows下先启动celery-beat
celery -A MySites beat -l debug --max-interval=10
#然后再启动worker
celery -A MySites worker -l debug -P eventlet
#注意:在正式环境下把debug改为info
# 查看注册的task
celery -A MySites inspect registered
# flower监控celery
celery flower
ip:5555
注意:出现以下错误是windows不支持celery4.0以上版本,降低为3.1版本即可
SystemError: returned a result with an error set
pip uninstall celery
pip install celery==3.1.22
补充:celery4.0以上版本不再支持 Microsoft Windows ,不再支持使用Django ORM作为代理 。
pip install supervisor
我们可以使用echo_supervisord_conf命令得到supervisor配置模板,打开终端执行如下Linux shell命令:
echo_supervisord_conf > supervisord.conf
该命令输出文件到当前目录下(当然,你也可以指定绝对路径到具体位置),文件名为supervisord.conf
修改supervisord.conf文件,在文件最后加入:
[program:celery.worker]
;指定运行目录
directory=/home/你的项目名称
;运行目录下执行命令
command=celery -A 你的项目名称worker --loglevel info --logfile celery_worker.log
;启动设置
numprocs=1 ;进程数
autostart=true ;当supervisor启动时,程序将会自动启动
autorestart=true ;自动重启
;停止信号,默认TERM
;中断:INT (类似于Ctrl+C)(kill -INT pid),退出后会将写文件或日志(推荐)
;终止:TERM (kill -TERM pid)
;挂起:HUP (kill -HUP pid),注意与Ctrl+Z/kill -stop pid不同
;从容停止:QUIT (kill -QUIT pid)
stopsignal=INT
;输出日志
stdout_logfile=celery_worker.log
stdout_logfile_maxbytes=10MB ;默认最大50M
stdout_logfile_backups=10 ;日志文件备份数,默认为10
;错误日志
redirect_stderr=false ;为true表示禁止监听错误
stderr_logfile=celery_worker_err.log
stderr_logfile_maxbytes=10MB
stderr_logfile_backups=10
启动supervisor输入如下命令,使用具体的配置文件执行:
先运行虚拟环境
supervisord -c supervisord.conf
关闭supervisor输入如下命令:
supervisorctl -c supervisord.conf shutdown
重启supervisor输入如下命令:
supervisorctl -c supervisord.conf reload
【后记】为了让大家能够轻松学编程,我创建了一个公众号【轻松学编程】,里面有让你快速学会编程的文章,当然也有一些干货提高你的编程水平,也有一些编程项目适合做一些课程设计等课题。
也可加我微信【1257309054】,拉你进群,大家一起交流学习。
如果文章对您有帮助,请我喝杯咖啡吧!
公众号
关注我,我们一起成长~~
【参考文章】:
http://yshblog.com/blog/165
https://www.jb51.net/article/133507.htm
https://blog.csdn.net/Shyllin/article/details/80940643
https://www.cnblogs.com/znicy/p/5626040.html
https://blog.csdn.net/qq_30242609/article/details/79047660
https://www.jb51.net/article/145573.htm
https://www.cnblogs.com/dengshihuang/p/8258621.html
https://blog.csdn.net/yeyingcai/article/details/78647553
http://www.manongjc.com/article/5685.htmlhttps://www.cnblogs.com/huangxiaoxue/p/7266253.html
https://blog.csdn.net/xiemanr/article/details/70331120
http://www.linuxdiyf.com/viewarticle.php?id=562707