安装包下载安装
- 地址:
- 个人选择这个版本Azkaban-2.5.0
- 把安装包上传到 /opt/software 目录
- 在/opt/module/目录下创建 azkaban 目录
[kevin@hadoop112 module]$ mkdir azkaban
- 解压
[kevin@hadoop112 software]$ tar -zxvf azkaban-executor-server-2.5.0.tar.gz -C /opt/module/azkaban/
[kevin@hadoop112 software]$ tar -zxvf azkaban-web-server-2.5.0.tar.gz -C /opt/module/azkaban/
[kevin@hadoop112 software]$ tar -zxvf azkaban-sql-script-2.5.0.tar.gz -C /opt/module/azkaban/
- 改名
[kevin@hadoop112 module]$ cd /opt/module/azkaban/
[kevin@hadoop112 azkaban]$ mv azkaban-executor-2.5.0/ executor
[kevin@hadoop112 azkaban]$ mv azkaban-web-2.5.0/ server
生成数据库 (azkaban 脚本导入)
[kevin@hadoop112 azkaban]$ mysql -uroot -p123456
mysql> create database azkaban;
mysql> use azkaban;
mysql> source /opt/module/azkaban/azkaban-2.5.0/create-all-sql-2.5.0.sql
注:source 后跟.sql 文件,用于批量处理.sql 文件中的 sql 语句。
生成密钥库
Keytool 是 java 数据证书的管理工具,使用户能够管理自己的公/私钥对及相关证书。
-keystore 指定密钥库的名称及位置(产生的各类信息将不在.keystore 文件中)
-genkey 在用户主目录中创建一个默认文件".keystore"
-alias 对我们生成的.keystore 进行指认别名;如果没有默认是 mykey
-keyalg 指定密钥的算法 RSA/DSA 默认是 DSA
- 在 azkaban web 服务器中,生成 keystore 的密码及相应信息的密钥库
[kevin@hadoop112 azkaban]$ cd /opt/module/azkaban/server/
[kevin@hadoop112 server]$ keytool -keystore keystore -alias kevin -genkey -keyalg RSA
会提示下面的内容:只需输入自定义的口令,并在是否正确输入y就行了;其它直接回车。
需要输入密钥库口令:
再次输入新口令:
您的名字与姓氏是什么?
[Unknown]:
您的组织单位名称是什么?
[Unknown]:
您的组织名称是什么?
[Unknown]:
您所在的城市或区域名称是什么?
[Unknown]:
您所在的省/市/自治区名称是什么?
[Unknown]:
该单位的双字母国家/地区代码是什么?
[Unknown]:
CN=Unknown, OU=Unknown, O=Unknown, L=Unknown, ST=Unknown, C=Unknown 是否正确?
[否]: y
输入 的密钥口令
(如果和密钥库口令相同, 按回车):
再次输入新口令:
- 查看 密钥
[kevin@hadoop112 server]$ keytool -keystore keystore -list
配置
Web 服务器配置
- 修改conf目录下的 azkaban.properties
[kevin@hadoop112 server]$ cd /opt/module/azkaban/server/conf
[kevin@hadoop112 conf]$ vim azkaban.properties
文件修改后的全部内容为:
#Azkaban Personalization Settings
#服务器 UI 名称,用于服务器上方显示的名字
azkaban.name=Test
#描述
azkaban.label=My Local Azkaban
#UI 颜色
azkaban.color=#FF3601
azkaban.default.servlet.path=/index
#默认 web server 存放 web 文件的目录
web.resource.dir=/opt/module/azkaban/server/web/
#默认时区,已改为亚洲/上海 默认为美国
default.timezone.id=Asia/Shanghai
#Azkaban UserManager class
user.manager.class=azkaban.user.XmlUserManager
#用户权限管理默认类(绝对路径)
user.manager.xml.file=/opt/module/azkaban/server/conf/azkaban-users.xml
#Loader for projects
#global 配置文件所在位置(绝对路径)
executor.global.properties=/opt/module/azkaban/executor/conf/global.properties
azkaban.project.dir=projects
#数据库类型
database.type=mysql
mysql.port=3306
mysql.host=hadoop112
mysql.database=azkaban
mysql.user=root
mysql.password=123456
#最大连接数
mysql.numconnections=100
# Velocity dev mode
velocity.dev.mode=false
# Azkaban Jetty server properties.
# Jetty 服务器属性.
#最大线程数
jetty.maxThreads=25
#Jetty SSL 端口
jetty.ssl.port=8443
#Jetty 端口
jetty.port=8081
#SSL 文件名(绝对路径)
jetty.keystore=/opt/module/azkaban/server/keystore
#SSL 文件密码
jetty.password=123456
#Jetty 主密码与 keystore 文件相同
jetty.keypassword=123456
#SSL 文件名(绝对路径)
jetty.truststore=/opt/module/azkaban/server/keystore
#SSL 文件密码
jetty.trustpassword=123456
# Azkaban Executor settings
executor.port=12321
# mail settings
mail.sender=
mail.host=
job.failure.email=
job.success.email=
lockdown.create.projects=false
cache.directory=cache
- 修改 azkaban-users.xml 文件,增加管理员用户
[kevin@hadoop112 conf]$ vim azkaban-users.xml
执行服务器配置
- 修改conf目录下的 azkaban.properties
[kevin@hadoop112 executor]$ cd /opt/module/azkaban/executor/conf
[kevin@hadoop112 conf]$ vim azkaban.properties
文件修改后的全部内容为:
#Azkaban
#时区
default.timezone.id=Asia/Shanghai
# Azkaban JobTypes Plugins
#jobtype 插件所在位置
azkaban.jobtype.plugin.dir=plugins/jobtypes
#Loader for projects
executor.global.properties=/opt/module/azkaban/executor/conf/global.properties
azkaban.project.dir=projects
database.type=mysql
mysql.port=3306
mysql.host=hadoop112
mysql.database=azkaban
mysql.user=root
mysql.password=123456
mysql.numconnections=100
# Azkaban Executor settings
#最大线程数
executor.maxThreads=50
#端口号(如修改,请与 web 服务中一致)
executor.port=12321
#线程数
executor.flow.threads=30
启动
- https://mvnrepository.com/artifact/org.apache.derby/derby/10.14.2.0
- 启动 executor服务器
[kevin@hadoop112 azkaban]$ cd /opt/module/azkaban/
[kevin@hadoop112 azkaban]$ ./executor/bin/azkaban-executor-start.sh
显示出端口号,就是启动成功,可以直接回车了
INFO [AzkabanExecutorServer] [Azkaban] Azkaban Executor Server started on port 12321
- 启动 web服务器
[kevin@hadoop112 azkaban]$ ./server/bin/azkaban-web-start.sh
显示出端口号,就是启动成功,可以直接回车了
INFO [AzkabanWebServer] [Azkaban] Server running on ssl port 8443.
- 有时候会启动失败
缺失Apache的derby包
下载地址,改名为 derby.jar
拉取到 /opt/module/azkaban/executor/lib
及 /opt/module/azkaban/server/lib
即可
- 查询进程
[kevin@hadoop112 azkaban]$ xcall.sh jps
8350 AzkabanWebServer
8414 Jps
8319 AzkabanExecutorServer
- 访问 Web 页面(注意是https)
https://hadoop112:8443
账号密码在 web服务器下的 azkaban-users.xml文件里设置
上面账号密码均设置为admin
使用时后台会报 certificate_unknown 这个错,因为密钥是自己生成的,没认证,不管它。
关闭
[kevin@hadoop112 azkaban]$ ./server/bin/azkaban-web-shutdown.sh
[kevin@hadoop112 azkaban]$ ./executor/bin/azkaban-executor-shutdown.sh
使用
Azkaban 内置的任务类型支持 command、java
1、单一 job任务启动
- 创建 job 描述文件
[kevin@hadoop112 azkaban]$ mkdir jobs
[kevin@hadoop112 azkaban]$ cd jobs
[kevin@hadoop112 jobs]$ vim first.job
#first.job
type=command
command=echo 'this is my first job'
- 将 job 资源文件打包成 zip 文件
[kevin@hadoop112 jobs]$ zip first.zip first.job
adding: first.job (deflated 15%)
注意:
目前,Azkaban 上传的工作流文件只支持 xxx.zip 文件。zip 应包含 xxx.job 运行作业所需的文件和任何文件(文件名后缀必须以.job 结尾,否则无法识别)。作业名称在项目中必须是唯一的。
- 创建项目并上传job的zip文件
-
启动执行
- 执行成功
2、多 job 工作流案例
创建有依赖关系的多个 job 描述
第一个 job:start.job
[kevin@hadoop112 jobs]$ vim start.job
#first.job
type=command
command=touch /opt/module/azkabanTest.txt
- 第二个 job:step1.job 依赖 start.job
[kevin@hadoop112 jobs]$ vim step1.job
#step1.job
type=command
dependencies=start
command=echo "this is step1 job">>/opt/module/azkabanTest.txt
- 第三个 job:step2.job 依赖 start.job
[kevin@hadoop112 jobs]$ vim step2.job
#job:step2.job
type=command
dependencies=start
command=echo "this is step2 job">>/opt/module/azkabanTest.txt
- 第四个 job:finish.job 依赖 step1.job 和 step2.job
[kevin@hadoop112 jobs]$ vim finish.job
#job:finish.job
type=command
dependencies=step1,step2
command=echo "this is job:finish job ${dt}">>/opt/module/azkabanTest.txt
- 打包创建项目上传
结构顺序
- 赋值
- 执行成功
- 赋值结果
3、配置邮件通知
- 修改配置文件
修改 server 的 conf 下的 azkaban.properties 文件
# mail settings
[email protected]
mail.host=smtp.163.com
[email protected]
mail.password=password
job.failure.email=
job.success.email=
- 在网页上进行配置
4、Java 操作任务
- 编写 java 程序
import java.io.IOException;
public class AzkabanTest {
public void run() throws IOException {
// 根据需求编写具体代码
FileOutputStream fos = new FileOutputStream("/opt/module/azkaban/output.txt");
fos.write("this is a java progress".getBytes());
fos.close();
}
public static void main(String[] args) throws IOException {
AzkabanTest azkabanTest = new AzkabanTest();
azkabanTest.run();
}
}
- 将 java 程序打成 jar 包,创建 lib 目录,将 jar 放入 lib 内
[kevin@hadoop112 azkaban]$ cd /opt/module/azkaban/
[kevin@hadoop112 azkaban]$ mkdir lib
[kevin@hadoop112 azkaban]$ cd lib/
- 编写 job 文件
[kevin@hadoop112 azkaban]$ cd jobs
[kevin@hadoop112 jobs]$ vim azkabanJava.job
#azkabanJava.job
type=javaprocess
java.class=com.atguigu.azkaban.AzkabanTest
classpath=/opt/module/azkaban/lib/*
- 将 job 文件打成 zip 包
[kevin@hadoop112 jobs]$ zip azkabanJava.zip azkabanJava.job
adding: azkabanJava.job (deflated 19%)
- 上传执行
下面都是基于 command 操作(大同小异)
5、HDFS 操作任务
- 创建 job 描述文件
[kevin@hadoop112 jobs]$ vim fs.job
#hdfs job
type=command
command=/opt/module/hadoop-2.7.2/bin/hadoop fs -mkdir /azkaban
- 将 job 资源文件打包成 zip 文件
[kevin@hadoop112 jobs]$ zip fs.zip fs.job
adding: fs.job (deflated 12%)
- 上传执行
6、MapReduce 任务
- 创建 job 描述文件
[kevin@hadoop112 jobs]$ vim mapreduce.job
#mapreduce job
type=command
command=/opt/module/hadoop-2.7.2/bin/hadoop jar /opt/module/hadoop-2.7.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /wordcount/input /wordcount/output
- 将 job 资源文件打包成 zip 文件
[kevin@hadoop112 jobs]$ zip mapreduce.zip mapreduce.job
adding: mapreduce.job (deflated 43%)
- 上传执行
7、Hive 脚本任务
- 创建 job 描述文件和 hive 脚本
Hive 脚本:student.sql
[kevin@hadoop112 jobs]$ vim student.sql
use default;
drop table student;
create table student(id int, name string)
row format delimited fields terminated by '\t';
load data local inpath '/opt/module/datas/student.txt' into table student;
insert overwrite local directory '/opt/module/datas/student' row format delimited fields terminated by '\t'
select * from student;
Job 描述文件:hive.job
[kevin@hadoop112 jobs]$ vim hive.job
#hive job
type=command
command=/opt/module/hive/bin/hive -f /opt/module/azkaban/jobs/student.sql
- 将 job 资源文件打包成 zip 文件
[kevin@hadoop112 jobs]$ zip hive.zip hive.job
adding: hive.job (deflated 21%)
- 上传执行