Flink提交任务至yarn

在flink on yarn模式中,flink yarn-session的两种提交方式

1.公用一个yarn-session

在yarn中初始化一个flink集群,开辟指定的资源,以后提交任务都向这里提交。这个flink集群会常驻在yarn集群中,除非手工停止。

2.每个job提供一个yarn-session

 

 

每次提交都会创建一个新的flink集群,任务之间互相独立,互不影响,方便管理。任务执行完成之后创建的集群也会消失。

第一种方式:

1.首先启动yarn session,并且会启动Flink的两个必要服务:JobManager和TaskManagers,然后你可以向集群提交作业。同一个Session中可以提交多个Flink作业。

我们先看看这个脚本支持哪些参数:

./bin/yarn-session.sh
Usage:
   Required
     -n,--container    Number of YARN container to allocate (=Number of Task Managers) 申请多少资源
   Optional
     -D                   Dynamic properties动态属性
     -d,–detached              Start detached类似于spark的集群模式
     -jm,--jobManagerMemory     Memory for JobManager Container [in MB]
     -nm,--name             Set a custom name for the application on YARN
     -q,–query                Display available YARN resources (memory, cores)
     -qu,--queue             Specify YARN queue.
     -s,--slots             Number of slots per TaskManager
     -st,--streaming             Start Flink in streaming mode
     -tm,--taskManagerMemory     Memory per TaskManager Container [in MB]

线上脚本: bin/yarn-session.sh -n 7 -s 8 -jm 3072 -tm 32768 -qu root.*.*-nm *-* -d

其中申请7个taskManager 每个8核 每个taskmanager有32768M内存 

这样我们就启动了一个yarn-session 就可以提交flink任务了。

2.我们可以使用./bin/flink脚本提交作业,同样我们来看看这个脚本支持哪些参数:

bin/flink
./flink [OPTIONS] [ARGUMENTS]
 
The following actions are available:
Action "run" compiles and runs a program.
  Syntax: run [OPTIONS]
  "run" action options:
     -c,--class                Class with the program entry point("main" method or "getPlan()" method.Only needed if the JAR file does not specify the class in its manifest.
     -C,--classpath                  Adds a URL to each user code classloader  on all nodes in the cluster. The paths must specify a protocol (e.g. file://) and be accessible on all nodes (e.g. by means of a NFS share). You can use this ption multiple times for specifying more than one URL. The protocol must be supported by the {@link java.net.URLClassLoader}.
     -d,--detached                     If present, runs the job in detached mode
     -m,--jobmanager :port>                  Address of the JobManager (master) to which to connect. Specify yarn-cluster' as the JobManager to deploy a YARN cluster for the job. Use this flag to connect to a different JobManager than the one specified in the configuration.
     -p,--parallelism                 The parallelism with which to run the program. Optional flag to override the default value specified in the configuration.
     -q,--sysoutLogging                   If present, supress logging output to standard out.
     -s,--fromSavepoint             Path to a savepoint to reset the job back to (for example file:///flink/savepoint-1537).

我们可以使用run选项运行Flink作业。这个脚本可以自动获取到YARN session的地址

线上脚本: nohup bin/flink run -s hdfs:///flink/savepoints/savepoint-bcabee-bf3f54a3b924 -c **** jars/**** test > Flink-RealtimeDAU.log 2>&1 &

通过-s 可以指定savepoints地址,来重跑job。

Savepoint是什么

Flink的savepoint是一个全局的、一致性的快照(snapshot)。其包含两方面:

  • 数据源所有数据的位置;
  • 并行操作的状态

“全局一致”是指所有的输入源数据在指定的位置,所有的并行操作的状态都被完全checkpoint了。

如果你的应用在过去某个时间点做了savepoint,那你随时可以从前面的savepoint更新发布应用。这时,新的应用会从savepoint中的操作状态进行初始化,并从savepoint的数据源位置开始重新处理所有数据。

3.启动之后如何停止运行的程序

关闭jobmanager
线上脚本:bin/flink cancel -s hdfs:///flink/savepoints /savepoints-* -yid application_1535964220442_0034

通过cancel命令进行停止

或者通过yarn application -kill applicationId 直接将yarn-session停止掉

或者通过 flink list 获得 jobId 

bin/flink cancel -s hdfs:///flink/savepoints/savepoint-* jobId 

其中-s为可选操作

 

第二种方式 

nohup bin/flink run -m yarn-cluster -yn 7  -s hdfs:///flink/savepoints/savepoint-* -c *.* jars/**** test > Flink-RealtimeDAU.log 2>&1 &

其中的-yn是指TaskManager的个数,必须指定。

你可能感兴趣的:(Flink提交任务至yarn)