文章内容输出来源:拉勾教育大数据高薪训练营
Airflow 是 Airbnb 开源的一个用 Python 编写的调度工具。于 2014 年启动,2015 年春季开源,2016 年加入 Apache 软件基金会的孵化计划。 Airflow将一个工作流制定为一组任务的有向无环图(DAG),并指派到一组计算节点上,根据相互之间的依赖关系,有序执行。Airflow 有以下优势:
Webserver 守护进程。接受 HTTP 请求,通过 Python Flask Web 应用程序与 airflow 进行交 互。Webserver 提供功能的功能包括:中止、恢复、触发任务;监控正在运行的任务,断点续跑任务;查询任务的状态,日志等详细信息。
Scheduler 守护进程。周期性地轮询任务的调度计划,以确定是否触发任务执行。
Worker 守护进程。Worker负责启动机器上的executor来执行任务。使用celeryExecutor后可以 在多个机器上部署worker服务。
DAG(Directed Acyclic Graph)有向无环图
Task
正式安装之前给虚拟机做一个备份;
备注:提前下载 Python-3.6.6.tgz
备注:使用linux122安装
# 卸载 mariadb
rpm -qa | grep mariadb
mariadb-libs-5.5.65-1.el7.x86_64
mariadb-5.5.65-1.el7.x86_64
mariadb-devel-5.5.65-1.el7.x86_64
yum remove mariadb
yum remove mariadb-libs
# 安装依赖
rpm -ivh mysql57-community-release-el7-11.noarch.rpm
yum install readline readline-devel -y
yum install gcc -y
yum install zlib* -y
yum install openssl openssl-devel -y
yum install sqlite-devel -y
yum install python-devel mysql-devel -y
# 提前到python官网下载好包
tar -zxvf Python-3.6.6.tgz
# 安装 python3 运行环境
cd Python-3.6.6/
# configure文件是一个可执行的脚本文件。如果配置了--prefix,安装后的所有资源文件都会放在目录中
./configure --prefix=/usr/local/python3.6
make && make install
/usr/local/python3.6/bin/pip3 install virtualenv
# 启动 python3 环境
cd /usr/local/python3.6/bin/
./virtualenv env
. env/bin/activate
# 检查 python 版本
python -V
# 设置目录(配置文件)
# 添加到配置文件/etc/profile。未设置是缺省值为 ~/airflow
export AIRFLOW_HOME=/opt/lagou/servers/airflow
# 使用豆瓣源非常快。-i: 指定库的安装源(可选选项)
pip install apache-airflow -i https://pypi.douban.com/simple
# 备注:可以设置安装的版本【不用执行】
pip install apache-airflow=1.10.10 -i https://pypi.douban.com/simple
备注:
-- 创建数据库
create database airflowlinux122;
-- 创建用户airflow,设置所有ip均可以访问
create user 'airflow'@'%' identified by '12345678';
create user 'airflow'@'localhost' identified by '12345678';
-- 用户授权,为新建的airflow用户授予Airflow库的所有权限
grant all on airflowlinux122.* to 'airflow'@'%';
SET GLOBAL explicit_defaults_for_timestamp = 1;
flush privileges;
# python3 环境中执行
pip install mysqlclient
airflow initdb
备注:有可能在安装完Airflow找不到 $AIRFLOW_HOME/airflow.cfg 文件,执行完airflow initdb才会在对应的位置找到该文件。
修改 $AIRFLOW_HOME/airflow.cfg:
# 约 75 行
sql_alchemy_conn = mysql://airflow:12345678@linux123:3306/airflowlinux122
# 重新执行
airflow initdb
可能出现的错误:Exception: Global variable explicit_defaults_for_timestamp needs to be on (1) for mysql
解决方法:
SET GLOBAL explicit_defaults_for_timestamp = 1;
FLUSH PRIVILEGES;
安装password组件:
pip install apache-airflow[password]
修改 airflow.cfg 配置文件(第一行修改,第二行增加):
# 约 281 行
[webserver]
# 约 353行
authenticate = True
auth_backend = airflow.contrib.auth.backends.password_auth
python命令,执行一遍;添加用户登录,设置口令
import airflow
from airflow import models, settings
from airflow.contrib.auth.backends.password_auth import PasswordUser
user = PasswordUser(models.User())
user.username = 'airflow'
user.email = '[email protected]'
user.password = 'airflow123'
session = settings.Session()
session.add(user)
session.commit()
session.close()
exit()
# 备注:要先进入python3的运行环境
cd /usr/local/python3.6/bin/ ./virtualenv env
. env/bin/activate
# 退出虚拟环境命令
deactivate
# 启动scheduler调度器:
airflow scheduler -D
# 服务页面启动:
airflow webserver -D
备注:airflow命令所在位置:/usr/local/python3.6/bin/env/bin/airflow
安装完成,可以使用浏览器登录 linux122:8080;输入用户名、口令:airflow / airflow123
Airflow默认使用UTC时间,在中国时区需要用+8小时。将UTC修改为中国时区,需要修改 Airflow源码。
1、在修改 $AIRFLOW_HOME/airflow.cfg 文件
# 约 65 行
default_timezone = Asia/Shanghai
2、修改 timezone.py
# 进入Airflow包的安装位置
cd /usr/local/python3.6/bin/env/lib/python3.6/site-packages/
# 修改airflow/utils/timezone.py
cd airflow/utils
vi timezone.py
第27行注释,增加29-37行:
备注:以上的修改方式有警告,可以使用下面的方式(推荐):
修改utcnow()函数 (注释掉72行,增加73行内容)
3、修改 airflow/utils/sqlalchemy.py
# 进入Airflow包的安装位置
cd /usr/local/python3.6/bin/env/lib/python3.6/site-packages/
# 修改 airflow/utils/sqlalchemy.py
cd airflow/utils
vi sqlalchemy.py
在38行之后增加 39 - 47 行的内容:
备注:以上的修改方式有警告,可以使用下面的方式(推荐):
4、修改airflow/www/templates/admin/master.html
# 进入Airflow包的安装位置
cd /usr/local/python3.6/bin/env/lib/python3.6/site-packages/
# 修改 airflow/www/templates/admin/master.html
cd airflow/www/templates/admin
vi master.html
# 将第40行修改为以下内容:
40 var UTCseconds = x.getTime();
# 将第43行修改为以下内容:
43 "timeFormat":"H:i:s",
重启airflow webserver
# 关闭 airflow webserver 对应的服务
ps -ef | grep 'airflow-webserver' | grep -v 'grep' | awk '{print $2}' | xargs -i kill -9 {}
# 关闭 airflow scheduler 对应的服务
ps -ef | grep 'airflow' | grep 'scheduler' | awk '{print $2}' | xargs -i kill -9 {}
# 删除对应的pid文件
cd $AIRFLOW_HOME
rm -rf *.pid
# 重启服务(在python3.6虚拟环境中执行)
airflow scheduler -D
airflow webserver -D
Trigger Dag:人为执行触发
Tree View:当dag执行的时候,可以点入,查看每个task的执行状态(基于树状视图)。状态:success、running、failed、skipped、retry、queued、no status
Graph View:基于图视图(有向无环图),查看每个task的执行状态
Tasks Duration:每个task的执行时间统计,可以选择最近多少次执行
Task Tries:每个task的重试次数
Gantt View:基于甘特图的视图,每个task的执行状态
Code View:查看任务执行代码
Logs:查看执行日志,比如失败原因
Refresh:刷新dag任务
Delete Dag:删除该dag任务
停止服务
# 关闭 airflow webserver 对应的服务
ps -ef | grep 'airflow-webserver' | grep -v 'grep' | awk '{print $2}' | xargs -i kill -9 {}
# 关闭 airflow scheduler 对应的服务
ps -ef | grep 'airflow' | grep 'scheduler' | awk '{print $2}' | xargs -i kill -9 {}
# 删除对应的pid文件
cd $AIRFLOW_HOME
rm -rf *.pid
修改文件 $AIRFLOW_HOME/airflow.cfg:
# 修改文件第 136 行
136 # load_examples = True
137 load_examples = False
# 重新设置db
airflow resetdb -y
重新设置账户、口令:
import airflow
from airflow import models, settings
from airflow.contrib.auth.backends.password_auth import PasswordUser
user = PasswordUser(models.User())
user.username = 'airflow'
user.email = '[email protected]'
user.password = 'airflow123'
session = settings.Session()
session.add(user)
session.commit()
session.close()
exit()
# 重启服务
airflow scheduler -D
airflow webserver -D
Linux 系统则是由 cron (crond) 这个系统服务来控制的。Linux 系统上面原本就有非常多的计划
性工作,因此这个系统服务是默认启动的。
Linux 系统也提供了Linux用户控制计划任务的命令:crontab 命令。
在以上各个字段中,还可以使用以下特殊字符:
*代表所有的取值范围内的数字。如月份字段为*,则表示1到12个月;
/ 代表每一定时间间隔的意思。如分钟字段为*/10,表示每10分钟执行1次;
- 代表从某个区间范围,是闭区间。如2-5表示2,3,4,5,小时字段中0-23/2表示在0~23点范围内 每2个小时执行一次;
, 分散的数字(不连续)。如1,2,3,4,7,9;
注:由于各个地方每周第一天不一样,因此Sunday=0(第1天)或Sunday=7(最后1天)。
crontab配置实例
# 每一分钟执行一次command(因cron默认每1分钟扫描一次,因此全为*即可)
* * * * * command
# 每小时的第3和第15分钟执行command
3,15 * * * * command
# 每天上午8-11点的第3和15分钟执行command
3,15 8-11 * * * command
# 每隔2天的上午8-11点的第3和15分钟执行command
3,15 8-11 */2 * * command
# 每个星期一的上午8点到11点的第3和第15分钟执行command
3,15 8-11 * * 1 command
# 每晚的21:30执行command
30 21 * * * command
# 每月1、10、22日的4:45执行command
45 4 1,10,22 * * command
# 每周六、周日的1 : 10执行command
10 1 * * 6,0 command
# 每小时执行command
0 */1 * * * command
# 晚上11点到早上7点之间,每隔一小时执行command
* 23-7/1 * * * command
放置在 $AIRFLOW_HOME/dags 目录下
# 执行命令检查脚本是否有错误。如果命令行没有报错,就表示没问题
python $AIRFLOW_HOME/dags/helloworld.py
# 查看生效的 dags
airflow list_dags -sd $AIRFLOW_HOME/dags
# 查看指定dag中的task
airflow list_tasks HelloWorldDag
# 测试dag中的task
airflow test HelloWorldDag MyTask2 20200801
核心交易分析
# 加载ODS数据(DataX迁移数据)
/data/lagoudw/script/trade/ods_load_trade.sh
# 加载DIM层数据
/data/lagoudw/script/trade/dim_load_product_cat.sh
/data/lagoudw/script/trade/dim_load_shop_org.sh
/data/lagoudw/script/trade/dim_load_payment.sh
/data/lagoudw/script/trade/dim_load_product_info.sh
# 加载DWD层数据
/data/lagoudw/script/trade/dwd_load_trade_orders.sh
# 加载DWS层数据
/data/lagoudw/script/trade/dws_load_trade_orders.sh
# 加载ADS层数据
/data/lagoudw/script/trade/ads_load_trade_order_analysis.sh
备注: depends_on_past ,设置为True时,上一次调度成功了,才可以触发。
$AIRFLOW_HOME/dags
airflow list_dags
airflow list_tasks coretrade --tree