介绍
在我们的日常工作自动化测试当中,几乎超过一半的功能都需要利用定时的任务来推动触发,例如在我们项目中有一个定时监控模块,根据自己设置的频率定时跑测试用例,定时检测是否存在线上紧急任务等等,这些都涉及到了有关定时任务的问题,很多情况下,大多数人会选择window的任务计划程序,但如果程序不在window平台下运行,就不能定时启动了;当然也可利用time模块的time.sleep()方法使程序休眠来达到定时任务的目的,但定时任务多了,代码可能看起来不太那么友好且有很大的局限性,因此,此时的Apscheduler框架是你的不二选择。
定时框架APScheduler
Apscheduler基于Quartz的一个python定时任务框架,实现Quart的所有功能,相关的接口调用起来比较方便,目前它提供了基于日期data、固定时间间隔interval以及linux上的corntab类型的任务,并且同时可进行持久化任务;同时它不仅可以添加、删除定时任务,还可以将任务存储到数据库中、实现任务的持久化,提供了多种不同的调用器,方便开发者根据自己的需求进行使用,也方便与数据库等第三方的外部持久化储存机制进行协同工作,非常强大。
基本原理
总的来说,主要是利用python threading Event和Lock锁来写的。scheduler在主循环(main_loop)中,反复检查是否有需要执行的任务,完成任务的检查函数为 _process_jobs,主要有那个几个步骤:
1、询问储存的每个 jobStore,是否有到期要执行的任务。
due_jobs=jobStore.get_due_jobs(now)
2、due_jobs不为空,则计算这些jobs中每个job需要运行的时间点,时间一到就提交给submit作任务调度。
run_times=job._get_run_times(now)
...
if run_times:
try:
executor.submit_job(job, run_times)
3、在主循环中,如果不间断地调用,而实际上没有要执行的job,这会造成资源浪费。因此在程序中,如果每次掉用 _process_jobs后,进行了预先判断,判断下一次要执行的job(离现在最近的)还要多长时间,作为返回值告诉main_loop, 这时主循环就可以去睡一觉,等大约这么长时间后再唤醒,执行下一次 _process_jobs。
安装
1、可以直接使用pip进行安装
pip install apscheduler
2、源码安装
https://pypi/.python.org/pypi/Apscheduler
python setup.py install
APScheduler有四种组件
1、触发器(trigger):
某一个工作到来时引发的事件,包含调度的逻辑,每一个作业都有它自己的触发器,用于决定哪个作业任务会执行,除了它们初始化配置之外,其完全是无状态的。总的来说就是一个任务应该在什么时候执行
2、执行器(executor):
主要是处理作业的运行,它将要执行的作业放在新的线程或者线程池中运行。执行完毕之后,再通知调度器。基于线程池的操作,可以针对不同类型的作业任务,更为高效的使用CPU的计算资源。对于执行器,默认情况下选择ThreadPoolExecutor就可以了,但是如果涉及到一下特殊任务如比较消耗CPU的任务则可以选择ProcessPoolExecutor,当然根据根据实际需求可以同时使用两种执行器。
3、作业存储(job stores)
保存要调度的任务,其中除了默认的作业存储是把作业保存在内存中,其他的作业存储是将作业保存在数据库中。一个作业的数据将在保存在持久化的作业存储之前,会对作业执行序列化操作,当重新读取作业时,再执行反序列化操作。同时,调度器不能分享同一个作业存储。作业存储支持主流的存储机制:如redis,mongodb,SQLAlchemy,关系型数据库,内存等等。
4、调度器(scheduler):
负责将上面几个组件联系在一起,一般在应用中只有一个调度器,程序开发者不会直接操作触发器、作业存储或执行器,而是利用调度器提供了处理这些合适的接口,作业存储和执行器的配置都是通过在调度器中完成的,如可以添加、修改、移除任务作业。
APScheduler提供了七种调度器
在我们的使用过程中,选择合适的调度器是根据我们的开发环境以及实际应用来决定的,根据IO模型的不同,主要有下面一些常见的调度器:
·BlockingScheduler:适合于只在进程中运行单个任务的情况
·BackgroundScheduler: 适合于不运行使用其他框架时,并希望在程序后台执行的情况
·AsyncIOScheduler:适合于使用asyncio框架的情况
·GeventScheduler: 适合于使用gevent框架的情况
·TornadoScheduler: 适合于使用Tornado框架的应用
·TwistedScheduler: 适合使用Twisted框架的应用
·QtScheduler: 适合使用QT的情况
对于作业存储,如果是非持久性作业,使用默认的MemoryStore就行了,若是持久性任务,那么就需要根据应用环境来进行选择。
APScheduler提供了四种存储方式
·MemoryJobStore
·sqlalchemy
·mongodb
·redis
APScheduler提供了三种任务触发器
·data:固定日期触发器:任务只运行一次,运行完毕自动清除;若错过指定运行时间,任务不会被创建
·interval:时间间隔触发器
·cron:cron风格的任务触发
配置调度器
Apscheduler框架提供了许多调度器的配置方法,既可以使用配置字典,也可以直接传递配置参数给调度器使用; 同时支持先初始化调度器,添加完作业任务后,再来配置调度器等。
我们可以来先举个简单的例子:
from apscheduler.schedulers.blocking import BlockingScheduler
//模拟要执行的函数任务
def tick():
print('Tick! The time is: %s' % datetime.now())
if __name__ == '__main__':
scheduler = BlockingScheduler() //启动默认的执行调度器
scheduler.add_job(tick, 'interval', seconds=5) //关联作业任务,每隔5秒执行一次
print('Press Ctrl+{0} to exit'.format('Break' if os.name == 'nt' else 'C '))
try:
scheduler.start()
except (KeyboardInterrupt, SystemExit):
pass
上面的代码生成一个默认的调度器,默认使用名为 default 的 MemoryJobStore,以及使用默认名为 default 的 ThreadPoolExecutor ,最大线程数为10 。
下面进行一个复杂的配置,同时使用两个作业存储和两个执行器,在这个配置中,修改默认的配置参数,jobstored指的是job持久化,默认job运行在内存中,可持久化在数据库,指定为mongo的MongoDBJobStore或者是使用sqlite的SQLAlchemyJobStore,同时可指定多种jobstore。
from pytz import utc
from apscheduler.schedulers.background import BackgroundScheduler
from apscheduler.jobstores.mongodb import MongoDBJobStore
from apscheduler.jobstores.sqlalchemy import SQLAlchemyJobStore
from apscheduler.executors.pool import ThreadPoolExecutor, ProcessPoolExec utor
//修改默认的作业存储参数,配置两个作业存储
jobstores = {
'mongo': MongoDBJobStore(),
'default': SQLAlchemyJobStore(url='sqlite:///jobs.sqlite')
}
//配置两个执行器
executors = {
'default': ThreadPoolExecutor(20),
'processpool': ProcessPoolExecutor(5)
}
job_defaults = {
'coalesce': False,
'max_instances': 3
}
scheduler = BackgroundScheduler(jobstores=jobstores, executors=executors, job_defaults=job_defaults, timezone=utc)
·coalesce:当由于某种原因导致某个job积攒了好几次没有实际运行(比如说系统挂了5分钟后恢复,有一个任务是每分钟跑一次的,按道理说这5分钟内本来是“计划”运行5次的,但实际没有执行),如果coalesce为True,下次这个job被submit给executor时,只会执行1次,也就是最后这次,如果为False,那么会执行5次(不一定,因为还有其他条件,看后面misfiregracetime的解释)。
·max_instance:每个job在同一时刻能够运行的最大实例数,默认情况下为1个,可以指定为更大值,这样即使上个job还没运行完同一个job又被调度的话也能够再开一个线程执行。
·misfire_grace_time:单位为秒,假设有这么一种情况,当某一job被调度时刚好线程池都被占满,调度器会选择将该job排队不运行,misfiregracetime参数则是在线程池有可用线程时会比对该job的应调度时间跟当前时间的差值,如果差值 启动调度器前需要先添加作业,有两种方法向调度器添加作业:一是通过接口add_job(),二是通过使用函数装饰器,其中 add_job() 返回一个apscheduler.job.Job类的实例,用于后续修改或删除作业。 使用start()方法来启动调度器,其中须注意的是BlockingScheduler需要在初始化之后才能执行 start(),对于其他的调度器,调用 start()方法都会直接返回,然后可以继续执行后面的初始化操作。同时,调度器启动之后,就不能再更改它的配置了。 我们可以随时在调度器上调度作业。如果在添加作业时,调度器还没有启动,那么任务将不会运行,并且第一次运行时间在调度器启动时计算。在默认情况下,调度器会等所有的作业任务完成后,自动关闭所有的调度器及作业存储。若在使用过程中不想等待,可以将 wait参数选项设为 False,则表示直接关闭: scheduler.start() //启动调度器 scheduler.shutdown() //关闭调度器 scheduler.shutdown(wait=False) //关闭调度器---使用过程中不想等待 可以给调度器添加事件监听器,调度器事件只有在某些情况下才会被触发,并且可以携带某些有用的信息。通过给 add_listener()传递合适的 mask参数,可以只监听几种特定的事件类型,具体类型可看源码中的 event.exception或者 event.code值来做识别判断。 法1: 通过event.exception # coding:utf-8 from apscheduler.schedulers.blocking import BlockingScheduler from apscheduler.events import EVENT_JOB_EXECUTED, EVENT_JOB_ERROR import datetime import logging logging.basicConfig(level=logging.INFO, format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s', datefmt='%Y-%m-%d %H:%M:%S', filename='log文件.txt', filemode='a') def aps_test(x): print (datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S'), x) def date_test(x): print(datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S'), x) print (1/0) def my_listener(event): if event.exception: print ('任务出错了!!!!!!') else: print ('任务照常运行...') scheduler = BlockingScheduler() scheduler.add_job(func=date_test, args=('一次性任务,会出错',), next_run_time=datetime.datetime.now() + datetime.timedelta(seconds=15), id='date_task') scheduler.add_job(func=aps_test, args=('循环任务',), trigger='interval', seconds=3, id='interval_task') scheduler.add_listener(my_listener, EVENT_JOB_EXECUTED | EVENT_JOB_ERROR) scheduler._logger = logging scheduler.start() 说明: 第 7-11 行配置日志记录信息,日志文件在当前路径,文件名为 “log1.txt”。 第 33 行启用 scheduler 模块的日记记录。 第 23-27 定义一个事件监听,出现意外情况打印相关信息报警。 法2: 通过event.code def my_listener(event): if event.code == EVENT_CODE_EXECUTED: print ('任务已执行完成!') else: print ('任务出现异常') scheduler.add_listener(my_listener, EVENT_JOB_EXECUTED | EVENT_JOB_ERROR) jobstore提供给scheduler一个序列化jobs的统一抽象,提供对scheduler中job的增删改查接口,根据存储backend的不同,分以下几种: ·MemoryJobStore:没有序列化,jobs就存在内存里,增删改查也都是在内存中操作 ·SQLAlchemyJobStore:所有sqlalchemy支持的数据库都可以做为backend,增删改查操作转化为对应backend的sql语句 ·MongoDBJobStore:用mongodb作backend ·RedisJobStore: 用redis作backend Job是框架承接目前需要执行的工作和任务,我们可以在系统运行过程中进行动态的增加、修改、删除、查询等操作。 1、添加作业:上面的例子是通过 add_job()来添加作业,另外还有一种方式是通过修饰器 scheduled_job来动态装饰 Job 的实际函数 2、移除作业:通过 remove_job()来移除作业 3、暂停作业: apsched.job.Job.pause() apsched.schedulers.base.BaseScheduler.pause_job() 4、恢复作业 apsched.job.Job.resume() apsched.schedulers.base.BaseScheduler.resume_job() 5、修改作业 apsched.rescheduler_job('job_id',trigger='cron',minute='*/5') 6、获取Job列表 获得调度作业的列表,可以使用 get_jobs()来完成,它会返回所有的job实例,同时也可使用 print_jobs()来输出所有格式化的作业列表。也可以利用 get_job(任务ID)获取指定任务的作业列表. add_job()方法的第二个参数是trigger,它管理着作业任务的调度方式,它可以被设置为 data、 interval、 corn三种类别。对于不同的设置类别,对应的参数也有所不同,具体如下: 1、corn 定时调度,即规定在某一时刻执行: 2、interval间隔调度,即每隔多久执行一次 3、data定时调度,即设置后作业只会执行一次,是最基本的调度模式 Apscheduler是一个非常强大且易用的类库,可以方便我们快速的搭建一些强大的定时任务或者定时监控类的调度系统,在实际工作中非常有用,同时其也提供了不少的扩展点。 参考地址:https://apscheduler.readthedocs.io/en/latest/启动/关闭调度器
调度器监听事件
作业及作业存储
作业运行控制
总结