1、什么是Airflow
Airflow 是一个 Airbnb 的 Workflow 开源项目,使用Python编写实现的任务管理、调度、监控工作流平台。Airflow 是基于DAG(有向无环图)的任务管理系统,可以简单理解为是高级版的crontab,但是它解决了crontab无法解决的任务依赖问题。与crontab相比Airflow可以方便查看任务的执行状况(执行是否成功、执行时间、执行依 赖等),可追踪任务历史执行情况,任务执行失败时可以收到邮件通知,查看错误日志。
系统名称 | 介绍 |
Apache Oozie |
使用XML配置, Oozie任务的资源文件都必须存放在HDFS上. 配置不方便同时也只能用于Hadoop. |
Linkedin Azkaban |
web界面尤其很赞, 使用java properties文件维护任务依赖关系, 任务资源文件需要打包成zip, 部署不是很方便. |
Airflow |
具有自己的web任务管理界面,dag任务创建通过python代码,可以保证其灵活性和适应性 |
(1)DAG:有向无环图(Directed Acyclic Graph),描述数据流的计算过程。
(2)Operators:DAG中一个Task要执行的任务,如:①BashOperator为执行一条bash命令;②EmailOperator用于发送邮件;③HTTPOperator用于发送HTTP请求;④PythonOperator用于调用任意的Python函数。
(3)Task:是DAG中的一个节点,是Operator的一个实例。
(4)Task Instance:记录Task的一次运行,Task Instance有自己的状态,包括:running、success、failed、 skipped、up for retry等。
(5)Trigger Rules:task的触发条件。
依赖:yum -y install python-devel libevent-devel mysql-devel mysqlclient
(1)安装airflow:pip install apache-airflow
(2)修改airflow对应的环境变量:export AIRFLOW_HOME=/usr/local/airflow
(3)执行airflow version,在/usr/local/airflow目录下生成配置文件
(4)修改默认数据库:修改/usr/local/airflow/airflow.cfg
[core]
executor = LocalExecutor
sql_alchemy_conn = mysql://airflow:[email protected]:3306/airflow
(5)创建airflow用户,创建airflow数据库并给出所有权限给次用户:
create database airflow;
create user 'tairflow'@'%' identified by '123123';
GRANT all privileges on airflow.* TO 'testairflow'@'%' IDENTIFIED BY '123456';
FLUSH PRIVILEGES;
(6)初始化数据库:airflow initdb
(7)启动web服务器:airflow webserver –p 8080
在安装过程中如遇到如下错误:
在my.cnf中加explicit_defaults_for_timestamp=1,然后重启数据库
下面通过Airflow调度任务管理的主界面了解一下各个模块功能,这个界面可以查看当前的DAG任务列表,有多少任务运行成功,失败以及正在当前运行中等:
在Graph View中查看DAG的状态。DAG是一个有向无环图,它是一个单向流动的ETL流程图。只有前置task执行成功后,后续task才会被Trigger;如果后续task有并行分支,会被同时Trigger执行。
对于已经执行完的task,鼠标停留在task上面,会自动浮现出一个黑色的提醒框,显示该task的基本情况。①Airflow当前UTC时间;②默认显示一个与①一样的时间,自动跟随①的时间变动而变动;③DAG当前批次触发的时间,也就是Dag Run时间,没有什么实际意义④数字4:该task开始执行的时间⑤该task开始执行和结束执行的UTC时间⑥该task开始执行和结束执行的CST时间,也就是香港本地时间。
Airflow中每一个task可能有8种状态,使用8种不同的颜色标注,分别是success、running、failed、skipped、up_for_reschedule、up_for_retry、queued、no_status。每一个task被调度执行前都是no_status状态;当被调度器传入作业队列之后,状态被更新为queued;被调度器调度执行后,状态被更新为running;如果该task执行失败,如果没有设置retry参数,状态立马被更新为failed;如果有设置retry参数,第一次执行失败后,会被更新为up_for_retry状态,等待重新被调度执行,执行完retry次数仍然失败则状态会被更新为failed;skipped状态是指该task被跳过不执行;up_for_reschedule状态是指等待重新调度;
每点击一个button,可以跳转到对应页面,查看这个task对应的Task Instance Details、Rendered、Task Instance、Log
"Run"可以单次执行该task,右边3个button是执行task时可以选择的条件,鼠标停留在每一个条件上会显示该条件表示的含义。选择"Ignore All Deps"表示忽略该task的前后依赖条件及之前批次的执行状态,直接执行该task。
"Clear"表示可以清除当前task的执行状态,清除执行状态后,该task会被自动重置为no_status,等待Airflow调度器自动调度执行;"Downstream"和"Recursive"是默认选中的,是当你点击"Clear"后,当前task及所有后置task的状态都会被清除,即当前task及所有后置task都会重新等待调度执行;如果同时选中"Upstream"和"Recursive",点击"Clear"后则表示从Dag第一个task到当前task,这条路径上的所有task会被重新调度执行;
点击"Clear"按钮后,会将当前task及所有后续task作业的task id打印出来。点击"OK"后,Airflow会将这些task的最近一次执行记录清除,然后将当前task及后续所有task生成新的task instance,将它们放入队列由调度器调度重新执行
以树状的形式查看各个Task任务的调度如下图
显示DAG调度持续的时间
甘特图显示每个任务的起止、持续时间
配置DAG运行的默认参数
查看DAG的调度脚本
以官网的脚本为例进行说明
from datetime import timedelta
# The DAG object; we'll need this to instantiate a DAG
from airflow import DAG
# Operators; we need this to operate!
from airflow.operators.bash_operator import BashOperator
from airflow.utils.dates import days_ago
# These args will get passed on to each operator
# You can override them on a per-task basis during operator initialization
default_args = {
'owner': 'airflow',
'depends_on_past': False,
'start_date': days_ago(2),
'email': ['[email protected]'],
'email_on_failure': False,
'email_on_retry': False,
'retries': 1,
'retry_delay': timedelta(minutes=5),
# 'queue': 'bash_queue',
# 'pool': 'backfill',
# 'priority_weight': 10,
# 'end_date': datetime(2016, 1, 1),
# 'wait_for_downstream': False,
# 'dag': dag,
# 'sla': timedelta(hours=2),
# 'execution_timeout': timedelta(seconds=300),
# 'on_failure_callback': some_function,
# 'on_success_callback': some_other_function,
# 'on_retry_callback': another_function,
# 'sla_miss_callback': yet_another_function,
# 'trigger_rule': 'all_success'
}
dag = DAG(
'tutorial',
default_args=default_args,
description='A simple tutorial DAG',
schedule_interval=timedelta(days=1),
)
# t1, t2 and t3 are examples of tasks created by instantiating operators
t1 = BashOperator(
task_id='print_date',
bash_command='date',
dag=dag,
)
t2 = BashOperator(
task_id='sleep',
depends_on_past=False,
bash_command='sleep 5',
retries=3,
dag=dag,
)
dag.doc_md = __doc__
t1.doc_md = """\
#### Task Documentation
You can document your task using the attributes `doc_md` (markdown),
`doc` (plain text), `doc_rst`, `doc_json`, `doc_yaml` which gets
rendered in the UI's Task Instance Details page.
![img](http://montcs.bloomu.edu/~bobmon/Semesters/2012-01/491/import%20soul.png)
"""
templated_command = """
{% for i in range(5) %}
echo "{{ ds }}"
echo "{{ macros.ds_add(ds, 7)}}"
echo "{{ params.my_param }}"
{% endfor %}
"""
t3 = BashOperator(
task_id='templated',
depends_on_past=False,
bash_command=templated_command,
params={'my_param': 'Parameter I passed in'},
dag=dag,
)
t1 >> [t2, t3]
(1)需要引入的包
2)DAG默认参数配置:
①depends_on_past:是否依赖上游任务,即上一个调度任务执行失 败时,该任务是否执行。可选项包括True和False,False表示当前执 行脚本不依赖上游执行任务是否成功;
②start_date:表示首次任务的执行日期;
③email:设定当任务出现失败时,用于接受失败报警邮件的邮箱地址;
④email_on_failure:当任务执行失败时,是否发送邮件。可选项包括 True和False,True表示失败时将发送邮件;
⑤retries:表示执行失败时是否重新调起任务执行,1表示会重新调起;
⑥retry_delay:表示重新调起执行任务的时间间隔;
(3)实例化DAG
设定该DAG脚本的id为tutorial; 设定每天的定时任务执行时间为一天调度一次。
调度时间还可以以“* * * * *”的形式表示,执行时间分别是“分,时,天,月,年”
注意:① Airflow使用的时间默认是UTC的,当然也可以改成服务器本地的时区。
②*/30 * * * * 指的是每个小时的30分的时候调度而不是半小时一次,比如说:1:30 , 2:30 ...
半小时调度一次的写法应该是:0/30 * * *
(4)Operator,即Task要执行的任务
段脚本中引入了需要执行的task_id,并对dag 进行了实例化。
里面的bash_command参数是对于具体执行这个task任务的脚本或命令。
还有Trigger_rule参数为该task任务执行的触发条件,官 方文档里面该触发条件有5种状态,一般常用的包括 “ ALL_DONE ” 和 ”ALL_SUCCESS” 两 种 。 其中 “ALL_DONE”为当上一个task执行完成,该task即 可执行,而”ALL_SUCCESS”为只当上一个task执行成功时,该task才能调起执行,执行失败时,本 task不执行任务。
(5)Task脚本的调度顺序
t1 >> [t2, t3]命令为task脚本的调度顺序,在该命令中先执行“t1” 任务后执行“t2, t3”任务。
一旦Operator被实例化,它被称为“任务”。实例化为在调用抽象Operator时定义一些特定值,参数化任务使之成为DAG中的一个节点。
调度顺序的其他表示方式①t1 >> t2 等价于t1.set_downstream(t2) 表示t1任务先执行②t1 << t2 等价于t1.set_upstream(t2) 表示t2任务先执行
Airflow通过可视化界面的方式实现了调度管理的界面操作,但在测试脚本或界面操作失败的时候,可通过命令行的方式调起任务。下面介绍几个常用的命令:
命令 | 描述 |
airflow list_tasks userprofile | 用于查看当前DAG任务下的所有task列表,其中userprofile是DAG名称 |
airflow test userprofile age_task 20200101 | 用于测试DAG下面某个task是否能正常执行,其中userprofile是DAG名称,age_task是其中一个task名称 |
airflow backfill -s 2020-01-01 -e 2020-01-02 userprofile | 用于调起整个DAG脚本执行任务,其中userprofile是DAG名称,2020-01-01是脚本执行的开始日期; |