Oozie框架基础

* Oozie框架基础

官方文档地址:http://oozie.apache.org/docs/4.0.0/DG_QuickStart.html

除Oozie之外,类似的框架还有:

** Zeus:https://github.com/michael8335/zeus2

** Azkaban:https://azkaban.github.io/

感兴趣的朋友可以自行查阅。

Oozie框架简介:

** Oozie单词释义:驯象人

** 一个基于工作流引擎的开源框架,由Cloudera公司贡献给Apache,提供对Hadoop Mapreduce、Pig Jobs的任务调度与协调。Oozie需要部署到Java Servlet容器中运行。

** 以xml的形式写调度流程,可以调度mr,pig,hive,shell,jar等。

Oozie主要功能:

** Workflow: 顺序执行流程节点,支持fork(分支多个节点),join(合并多个节点为一个)

** Coordinator,定时触发workflow

** Bundle Job,绑定多个coordinator

Oozie节点:

** 控制流节点(Control Flow Nodes):

控制流节点一般都是定义在工作流开始或者结束的位置,比如start,end,kill等。以及提供工作流的执行路径机制,如decision,fork,join等。

** 动作节点(Action  Nodes):

简而不能再简的言之,就是主要就是执行一些动作,比如FS ACTION,可以删除HDFS上的文件,创建文件夹等等等等

接下来我们实际操作感受一下。

* Oozie下载

链接:http://pan.baidu.com/s/1hs85SdI 密码:1bkq

* ext依赖包下载

Oozie的工作依赖于另一个library,ExtJS,WHY?该依赖包主要是提供一个Oozie的界面,如果不需要界面,可以省略。

链接:http://pan.baidu.com/s/1nvv40B3 密码:x5n2

* Oozie部署

(与之前几节内容重复则不再赘述,比如解压,安装之类的)

1、 Hadoop已经成功安装并配置

2、 解压Oozie到指定目录

3、 配置文件

core-site.xml

添加属性:

hadoop.proxyuser.z.hosts:*,即:OOZIE_SERVER_HOSTNAME

hadoop.proxyuser.z.groups:*,即:USER_GROUPS_THAT_ALLOW_IMPERSONATION

如图:

Oozie框架基础_第1张图片

尖叫提示:如果你的集群不是单节点状态,则需要把该core-site.xml文件scp到集群中的其他机器,此处为z02,z03机器。

尖叫提示:你还需要开启mr-jobhistory-daemon.sh服务

4、 如果HDFS已经开启,则需要重启Hadoop的DFS系统

5、解压hadooplibs

$ tar -zxf /opt/modules/cdh/oozie-4.0.0-cdh5.3.6/oozie-hadooplibs-4.0.0-cdh5.3.6.tar.gz -C /opt/modules/cdh/

注意,解压之后,你会发现hadooplibs直接在Oozie目录下了,是以内压缩包的根目录结构就是Oozie根目录。

6、在Oozie的根目录下,创建libext/目录

$ mkdir libext/

7、将hadooplibs里面的jar包,拷贝到libext目录下

$ cp -ra /opt/modules/cdh/oozie-4.0.0-cdh5.3.6/hadooplibs/hadooplib-2.5.0-cdh5.3.6.oozie-4.0.0-cdh5.3.6/* libext/

8、将ext-2.2.zip拷贝到libext/目录下

$ cp /opt/softwares/ext-2.2.zip libext/

9、修改配置文件

oozie-site.xml,修改如下属性,注意,不是替换,只是修改,如图:

Oozie框架基础_第2张图片


10、由于Oozie需要数据库支持,所以需要安装一个Mysql数据库

由于之前已经安装了Mysql了,此处不再赘述如何安装Mysql。

创建一个oozie数据库,然后把mysql驱动jar拷贝至libext,操作如下:

$ mysql -uroot -p123456

mysql> create database oozie;

exit;

$ cp /opt/modules/mysql-connector-java-5.1.27/mysql-connector-java-5.1.27-bin.jar /opt/modules/cdh/oozie-4.0.0-cdh5.3.6/libext/

11、设置oozie

** 上传oozie目录下的yarn.tar.gz(会自行解压)文件到HDFS

命令如下:

$ bin/oozie-setup.sh sharelib create -fs hdfs://z01:8020 -locallib oozie-sharelib-4.0.0-cdh5.3.6-yarn.tar.gz,执行后如图,注意,该指令一定要在活跃的NameNode节点执行。如果不在,请自行想办法。(方式之前小节已经讲解)


Oozie框架基础_第3张图片

** 创建oozie.sql文件

$ bin/oozie-setup.sh db create -run -sqlfile oozie.sql,如图则成功:

Oozie框架基础_第4张图片

** 打包项目,生成war

$ bin/oozie-setup.sh prepare-war,如图则成功:

** 启动oozie,通过浏览器访问oozie界面

$ bin/oozied.sh start

地址:http://192.168.122.200:11000/oozie,界面如图:

Oozie框架基础_第5张图片

* 案例

例1:oozie调度shell脚本

** 解压oozie根目录下的案例

$ tar -zxf oozie-examples.tar.gz

** 创建自定义任务文件夹,并拷贝任务模板

$ mkdir oozie-apps/

$ cp -r examples/apps/shell/ oozie-apps/

** 创建脚本p1.sh,随便写一个任务啦,如图:

** 修改job.properties和workflow.xml文件

job.properties:

Oozie框架基础_第6张图片

workflow.xml:

Oozie框架基础_第7张图片

** 上传任务配置到HDFS

尖叫提示:任务配置文件每次在本地修改后,如需执行,都需要重新上传到HDFS,因为Oozie不支持本地运行。

上传:

$ /opt/modules/cdh/hadoop-2.5.0-cdh5.3.6/bin/hdfs dfs -put /opt/modules/cdh/oozie-4.0.0-cdh5.3.6/oozie-apps/ /user/z/

** 提交执行该任务

$ bin/oozie job -oozie http://z01:11000/oozie -config oozie-apps/shell/job.properties -run,在Oozie界面可以看到:

查看tmp目录下生成的p1.log文件如下:

Oozie框架基础_第8张图片

尖叫提示:

现象:你执行了某个任务,通过shell脚本向本地tmp目录下写.log文件,然后,找不到?

原因:排除你任务执行失败之外,看一看你的其他机器对应目录是否有.log文件生成?

解释:因为shell脚本执行为当前机器节点,所以在resourcemanager调度任务给某一个NodeManager

执行时,该.log日志文件的生成会在任务执行所在的NodeManager节点上生成。

** 杀掉某个任务

当任务卡死或者无效,可以选择杀死该任务

$ bin/oozie job -oozie http://z01:11000/oozie -kill 0000004-170425105153692-oozie-z-W

例2:执行多个Job调度

** 创建两个shell脚本

此处我直接利用刚才的p1.sh复制出来一个p2.sh

$ cp -a oozie-apps/shell/p1.sh oozie-apps/shell/p2.sh

改变p2.sh如图:

注意ls命令的绝对路径不是sbin

对应的配置文件,修改如图所示:

job.properties:

Oozie框架基础_第9张图片

workflow.xml:

Oozie框架基础_第10张图片

** 上传后,执行该任务,不再赘述。该任务流程为:先执行action1,如果action1成功,则执行action2,然后结束,否则直接结束。

此处可以看到,运行结果:

Oozie框架基础_第11张图片

尖叫提示:重新上传前,需要先删除HDFS中的oozie-apps文件夹

例3:调度mapreduce任务

** 首先拷贝示例模板

$ cp -r examples/apps/map-reduce/ oozie-apps/

** 删除map-reduce/lib目录下示例的jar包,一会存放自己的jar

$ rm -rf oozie-apps/map-reduce/lib/*

** 在DFS系统中创建input文件夹并传入words.txt文件,然后运行测试前几节我们打包好的Jar包,即单词统计任务(这一步在之前的HDFS讲解中重复很多遍了,所以不在赘述)

$ /opt/modules/cdh/hadoop-2.5.0-cdh5.3.6/bin/hdfs dfs -mkdir /input/

$ /opt/modules/cdh/hadoop-2.5.0-cdh5.3.6/bin/hdfs dfs -put /opt/modules/hadoop-2.5.0/words.txt /input/

$ /opt/modules/cdh/hadoop-2.5.0-cdh5.3.6/bin/yarn jar /opt/modules/hadoop-2.5.0/MyWordCount.jar /input/ /output/

$ /opt/modules/cdh/hadoop-2.5.0-cdh5.3.6/bin/hdfs dfs -cat /output/par*,一顿操作后,结果如图:

Oozie框架基础_第12张图片

** 配置文件

job.properties:

Oozie框架基础_第13张图片

workflow.xml:

Oozie框架基础_第14张图片
一定要指定key和value是输出类型

注意,配置workflow.xml文件时,里面的property属性需要结合具体情况配置,比如我刚才已经运行了一个MyWordCount任务了,我可以通过yarn平台的界面来查找相关属性,打开8088端口界面,找到刚才运行的任务,点击history:

然后出现如下界面,点击Configuration:

Oozie框架基础_第15张图片

然后在右上角搜索api这个关键字:

绿色框体中的内容即为属性名,蓝色窗体即为属性值,大家自己对应查找即可,然后完成workflow.xml文件的配置。

** 拷贝MyWordCount.jar到oozie-apps/map-reduce/lib目录下

这里根据我的情况,我之前的MyWordCount.jar包存放于另外一个hadoop目录下了,所以:

$ cp -a /opt/modules/hadoop-2.5.0/MyWordCount.jar oozie-apps/map-reduce/lib/

** 上传map-reduce目录到HDFS的oozie-apps目录

$ /opt/modules/cdh/hadoop-2.5.0-cdh5.3.6/bin/hdfs dfs -put oozie-apps/map-reduce/ /user/z/oozie-apps/

** 运行任务

$ bin/oozie job -oozie http://z01:11000/oozie -config oozie-apps/map-reduce/job.properties -run,成功结果如图:

Oozie框架基础_第16张图片

例4:使用Coordinator周期性调度任务

** 配置时区

如图:+0800是东八区区时,如果不是此时区,查询如何修改时区,在此不赘述。

** 修改oozie-site.xml文件

添加如下属性,该属性可以去oozie-default.xml文件中查找

Oozie框架基础_第17张图片

** 修改oozie-console.js文件中的时区设定

$ cat /opt/modules/cdh/oozie-4.0.0-cdh5.3.6/oozie-server/webapps/oozie/oozie-console.js,搜索TimeZone函数,修改为如下:

** 重启oozie,并清除浏览器缓存,不放心的话,可以换另一个浏览器打开即可

$ bin/oozied.sh stop

$ bin/oozied.sh start

** 拷贝coordinator周期任务模板

首先,还是先去examples里面拷贝个任务配置模板出来

$ cp -r examples/apps/cron/ oozie-apps/

** 修改job.properties、coordinator.xml文件,workflow文件就用案例1的即可。

由于我打算让coordinator来调度案例1的workflow任务,所以,先把案例1的workflow.xml复制到cron目录下。

$ cp oozie-apps/shell/workflow.xml oozie-apps/cron/

当然了,还有那个具体的脚本p1.sh和p2.sh

$ cp oozie-apps/shell/p1.sh oozie-apps/shell/p2.sh oozie-apps/cron/

然后修改job.properties文件:

Oozie框架基础_第18张图片

然后修改coordinator.xml文件:

Oozie框架基础_第19张图片

修改内容:frequency修改为5分钟执行一次,时区修改为GMT+0800,注意,coordinator执行频率最小为5分钟一次。

** 运行测试

先上传cron目录到HDFS

$ /opt/modules/cdh/hadoop-2.5.0-cdh5.3.6/bin/hdfs dfs -put oozie-apps/cron/ /user/z/oozie-apps/

$ bin/oozie job -oozie http://z01:11000/oozie -config oozie-apps/cron/job.properties -run

请自行观察其5分钟执行一次,执行到明天结束。

Oozie框架基础_第20张图片

* 总结

oozie调度框架的学习,如果概念不了解,可以先在似懂非懂的状态下把例子学会,再回顾知识点,自然就理解了。


IT全栈公众号:

Oozie框架基础_第21张图片

QQ大数据技术交流群(广告勿入):476966007

Oozie框架基础_第22张图片

下一节:Hue搭配基础

你可能感兴趣的:(Oozie框架基础)