FLINK安装及提交任务

FLINK安装及提交任务

      • FLINK安装
      • 编写测试代码
      • 自带UI界面提交JOB
      • 命令提交JOB
      • YARN模式提交JOB
        • Session-cluster 模式
        • Per-Job-Cluster 模式
      • 并行度拓展

FLINK安装

   1.安装前确认有java环境,我这里有三台机器,分别是hadoop1,hadoop2,hadoop3;
   2.将tar包上传到服务器的一个节点上:flink-1.10.0-bin-scala_2.11.tgz,我这里是放在/opt/soft下;
   3.解压:tar -zxvf flink-1.10.0-bin-scala_2.11.tgz,解压后的文件夹:flink-1.10.0
   4.修改flink-1.10.0/conf下的flink-conf.yaml 文件:

FLINK安装及提交任务_第1张图片

5.修改 /conf/slaves文件,将三台机器hostname写入:
在这里插入图片描述
6.一台机器配好后,分发到其他两台机器:
cp -r flink-1.10.0/ atguigu@hadoop2:/opt/module/
cp -r flink-1.10.0/ atguigu@hadoop1:/opt/module/

7.启动集群:
/opt/module/flink-1.10.0/bin/start-cluster.sh
FLINK安装及提交任务_第2张图片
访问http://localhost:8081可以对flink集群和任务进行监控管理:

FLINK安装及提交任务_第3张图片

8.停止集群:
/opt/module/flink-1.10.0/bin/stop-cluster.sh

编写测试代码

编写代码(这里已单词统计为例):

	    package com.atguigu.flink;
		
		import org.apache.flink.api.common.functions.FlatMapFunction;
		import org.apache.flink.api.common.functions.ReduceFunction;
		import org.apache.flink.streaming.api.datastream.DataStream;
		import org.apache.flink.streaming.api.datastream.DataStreamSource;
		import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
		import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
		import org.apache.flink.streaming.api.windowing.time.Time;
		import org.apache.flink.util.Collector;
		
		/**
		 *
		 *
		 * @Author duanguizheng
		 * @Date 2021/1/20 13:47
		 * @Version 1.0
		 */
		public class dataStreamWordCount {
		    public static void main(String[] args) throws Exception {
		        String hostname = "";
		        int port = 9999;
		        try {
		            if (args.length == 0) {
		                throw new IllegalArgumentException("give param hostname & port");
		            }
		            hostname = args[0];
		            port = Integer.valueOf(args[1]);
		        } catch (IllegalArgumentException e) {
		            System.err.println(e.getMessage());
		            return;
		        }
		
		        // 创建执行环境
		        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
		        DataStreamSource source = null;
		        if(null == hostname || "" == hostname){
		            // 设置socket数据源
		            source =  env.socketTextStream("hadoop1", 9999, "\n");
		        }else{
		            source = env.socketTextStream(hostname, port, "\n");
		        }
		
		        // 转化处理数据
		        //flatmap,也就是将嵌套集合转换并平铺成非嵌套集合
		        //对于map()来说,实现MapFunction也只是支持一对一的转换。
		        //那么有时候你需要处理一个输入元素,但是要输出一个或者多个输出元素的时候,就可以用到flatMap()。
		        DataStream dataStream = source.flatMap(new FlatMapFunction() {
		            @Override
		            public void flatMap(String line, Collector collector) throws Exception {
		                for (String word : line.split(" ")) {
		                    collector.collect(new WordWithCount(word, 1));
		                }
		            }
		        }).keyBy("word")//以key分组统计
		           /*     .timeWindow(Time.seconds(10))//设置一个窗口函数,模拟数据流动*/
		                .sum("count");//计算时间窗口内的词语个数
		              /*  .reduce(new ReduceFunction() {
		                    @Override
		                    public WordWithCount reduce(WordWithCount a, WordWithCount b) {
		                        return new WordWithCount(a.word, a.count + b.count);
		                    }
		                });*/
		
		        //reduce算子是flink流处理中的一个聚合算子,可以对属于同一个分组的数据进行一些聚合操作。
		        //但有一点需要注意,就是在需要对聚合结果进行除聚合操作之外的操作时,有可能会失效。
		        //这里利用reduce函数实现了与和函数相同的效果。熟悉map-reduce的同学可能更容易理解这个函数。
		        // 这个示例中,reduce函数的功能就是将数据流中的上一个数据和当前数据相加,然后返回传递给下次调用。
		
		
		        // 输出数据到目的端
		        dataStream.print().setParallelism(1);
		
		        // 执行任务操作
		        env.execute("Flink Streaming Word Count By Java");
		
		        //WordWithCount{word='mnihao', count=1}
		        //WordWithCount{word='nihao', count=1}
		        //WordWithCount{word='hi', count=1}
		        //WordWithCount{word='hi', count=2}
		        //WordWithCount{word='hi', count=3}
		        //WordWithCount{word='hi', count=4}
		
		    }
		
		    public static class WordWithCount{
		        public String word;
		        public int count;
		
		        public WordWithCount(){
		
		        }
		
		        public WordWithCount(String word, int count) {
		            this.word = word;
		            this.count = count;
		        }
		
		        @Override
		        public String toString() {
		            return "WordWithCount{" +
		                    "word='" + word + '\'' +
		                    ", count=" + count +
		                    '}';
		        }
		    }
		
		}

打jar包,用idea的package打包
FLINK安装及提交任务_第4张图片

自带UI界面提交JOB

      将jar包上传

FLINK安装及提交任务_第5张图片

   填写主程序类名,填写需要传入的参数,点击submit提交(在hadoop1上运行命令:nc -lk 7777):

FLINK安装及提交任务_第6张图片

  nc终端输入字符,在对应的任务控制台会输入结果:

在这里插入图片描述

FLINK安装及提交任务_第7张图片

命令提交JOB

1.将jar包放到服务器上(所有任务节点都要放),这里我放到flink安装包的jar文件夹下;
2.命令行执行job:

	[atguigu@hadoop1 bin]$ ./flink run -c com.atguigu.flink.dataStreamWordCount -p 2 /opt/module/flink-1.10.0/jar/filnktest-1.0-SNAPSHOT.jar hadoop1 7777 
	Job has been submitted with JobID ea6c1a229eaeb9299d5816a63ad2b874

3.出现job has been submitted 说明已经提交,可以在http://localhost:8081/查看

FLINK安装及提交任务_第8张图片

YARN模式提交JOB

以Yarn模式部署Flink任务时,要求Flink是有Hadoop支持的版本,Hadoop环境需要保证版本在2.2以上,并且集群中安装有HDFS服务。

这里我之前已经有了HDFS集群,现在将flink的hadoop支持jar包放到flink的lib目录下:

FLINK安装及提交任务_第9张图片

Flink提供了两种在yarn上运行的模式,分别为Session-Cluster和Per-Job-Cluster模式。

1) Session-cluster 模式:

		Session-Cluster模式需要先启动集群,然后再提交作业,接着会向yarn申请一块空间后,资源永远保持不变。如果资源满了,下一个作业就无法提交,只能等到yarn中的其中一个作业执行完成后,释放了资源,下个作业才会正常提交。所有作业共享Dispatcher和ResourceManager;共享资源;适合规模小执行时间短的作业。
		在yarn中初始化一个flink集群,开辟指定的资源,以后提交任务都向这里提交。这个flink集群会常驻在yarn集群中,除非手工停止。

2) Per-Job-Cluster 模式:
 
        一个Job会对应一个集群,每提交一个作业会根据自身的情况,都会单独向yarn申请资源,直到作业执行完成,一个作业的失败与否并不会影响下一个作业的正常   提交和运行。独享Dispatcher和ResourceManager,按需接受资源申请;适合规模大长时间运行的作业。
每次提交都会创建一个新的flink集群,任务之间互相独立,互不影响,方便管理。任务执行完成之后创建的集群也会消失。

Session-cluster 模式

  1. 启动hadoop集群:

FLINK安装及提交任务_第10张图片
2)启动yarn-session:

./yarn-session.sh -n 2 -s 2 -jm 1024 -tm 1024 -nm test -d

其中:
-n(–container):TaskManager的数量。
-s(–slots): 每个TaskManager的slot数量,默认一个slot一个core,默认每个taskmanager的slot的个数为1,有时可以多一些taskmanager,做冗余。
-jm:JobManager的内存(单位MB)。
-tm:每个taskmanager的内存(单位MB)。
-nm:yarn 的appName(现在yarn的ui上的名字)。
-d:后台执行。

注意------ 这里我启动时报了如下错误:

		 Container [pid=41355,containerID=container_1451456053773_0001_01_000002] is running beyond physical memory limits. 
		Current usage: 2.0 GB of 2 GB physical memory used; 5.2 GB of 4.2 GB virtual memory used. Killing container. 
		Dump of the process-tree for container_1451456053773_0001_01_000002 : |- PID PPID PGRPID SESSID CMD_NAME USER_MODE_TIME(MILLIS) 
		SYSTEM_TIME(MILLIS) VMEM_USAGE(BYTES) RSSMEM_USAGE(PAGES) FULL_CMD_LINE |- 41538 41355 41355 41355 (java) 3092 243 5511757824 526519 
		/usr/jdk64/jdk1.7.0_67/bin/java -server -XX:NewRatio=8 -Djava.net.preferIPv4Stack=true 
		-Dhadoop.metrics.log.level=WARN -Xmx4506m 
		-Djava.io.tmpdir=/diskb/hadoop/yarn/local/usercache/hdfs/appcache/application_1451456053773_0001/container_1451456053773_0001_01_000002/tmp 
		-Dlog4j.configuration=container-log4j.properties 
		-Dyarn.app.container.log.dir=/diska/hadoop/yarn/log/application_1451456053773_0001/container_1451456053773_0001_01_000002 
		-Dyarn.app.container.log.filesize=0 -Dhadoop.root.logger=INFO,CLA 
		org.apache.hadoop.mapred.YarnChild 10.111.32.92 61224 attempt_1451456053773_0001_m_000000_0 2 |- 41355 37725 41355 

通过查找资料在网上看到了这个大神的文章,最后解决了:https://blog.csdn.net/u012042963/article/details/53099638

解决办法:

  1. 在启动Yarn是调节虚拟内存率或者应用运行时调节内存大小:
    修改etc/hadoop/yarn-site.xml

    yarn.nodemanager.vmem-pmem-ratio
    3.1
  2. 或者关闭虚拟内存检查:
    修改etc/hadoop/yarn-site.xml

    yarn.nodemanager.vmem-check-enabled
    false

如下为启动成功日志:

FLINK安装及提交任务_第11张图片
最后会有一个jobManager Web 地址:
打开它,我们可以监控该flink集群下执行的任务了:
FLINK安装及提交任务_第12张图片
这里提交一个上面的单词统计任务,提交成功给出一个JobID:
FLINK安装及提交任务_第13张图片
通过WEB界面我们可以看到该job在执行了:

FLINK安装及提交任务_第14张图片

通过nc输入一些单词:
FLINK安装及提交任务_第15张图片

我们在taskManager下的控制台可以看到输出的统计结果:
FLINK安装及提交任务_第16张图片

3)关闭yarn-session:

yarn application --kill application_1611844088398_0002

FLINK安装及提交任务_第17张图片

FLINK安装及提交任务_第18张图片

Per-Job-Cluster 模式

1)启动hadoop集群(略)
2)不启动yarn-session,直接执行job

[atguigu@hadoop1 flink-1.10.0]$ flink run –m yarn-cluster -c com.atguigu.flink.dataStreamWordCount /opt/module/flink-1.10.0/jar/filnktest-1.0-SNAPSHOT.jar hadoop1 7777

FLINK安装及提交任务_第19张图片

打开提交job给出的web地址,可以看到job的运行信息:

FLINK安装及提交任务_第20张图片

任务提交参数讲解:相对于 Yarn-Session 参数而言,只是前面加了 y:

a、 -yn,–container 表示分配容器的数量,也就是 TaskManager 的数量。

b、 -d,–detached:设置在后台运行。

c、 -yjm,–jobManagerMemory:设置 JobManager 的内存,单位是 MB。

d、 -ytm,–taskManagerMemory:设置每个 TaskManager 的内存,单位是 MB。

e、 -ynm,–name:给当前 Flink application 在 Yarn 上指定名称。

f、 -yq,–query:显示 yarn 中可用的资源(内存、cpu 核数)

g、 -yqu,–queue :指定 yarn 资源队列

h、 -ys,–slots :每个 TaskManager 使用的 Slot 数量。

i、 -yz,–zookeeperNamespace:针对 HA 模式在 Zookeeper 上创建 NameSpace

j、 -yid,–applicationID : 指定 Yarn 集群上的任务 ID,附着到一个后台独立运行的 Yarn Session 中。

并行度拓展

其中的关系如下:假设集群中有一台master,k台slave节点。
Flink-conf.yaml中有两个重要的参数:

taskmanager.numberOfTaskSlots,The number of task slots that each TaskManager offers. Each slot runs one parallel pipeline.
parallelism.default,The parallelism used for programs that did not specify and other parallelism.
前者指定了每个taskmanager提供的slot个数,后者的指定的程序默认的并行度。两者之间的关系为:
p a r a l l e l i s m . d e f a u l t < = k ( t h e N u m b e r O f t a s k m a n a g e r ) ∗ t a s k m a n a g e r . n u m b e r O f T a s k S l o t s parallelism.default<=k(theNumber Of taskmanager)*taskmanager.numberOfTaskSlotsparallelism.default<=k(theNumberOftaskmanager)∗taskmanager.numberOfTaskSlots
否则程序运行时候将不会得到足够多的slot而报错。
总之就是,slot提供资源,越多越好,并行度不能超过slot总上限。

1、TaskManager 和 Slot

 Flink的每个TaskManager为集群提供solt。 solt的数量通常与每个TaskManager节点的可用CPU内核数成比例。一般情况下你的slot数是你每个节点的cpu的核数。

FLINK安装及提交任务_第21张图片

Slot 是进程,如果使用Flink on Yarn 模式不需要考虑资源的配置。

2、并行度(Parallel)

   一个Flink程序由多个任务组成(source、transformation和 sink)。 一个任务由多个并行的实例(线程)来执行, 一个任务的并行实例(线程)数目就被称为该任务的并行度。

2.1、并行度(Parallel)的设置

一个任务的并行度设置可以从多个层次指定
Operator Level(算子层次)
Execution Environment Level(执行环境层次)
Client Level(客户端层次)
System Level(系统层次)

2.2、Operator Level(算子层面)

 一个算子、数据源和sink的并行度可以通过调用 setParallelism()方法来指定

FLINK安装及提交任务_第22张图片

2.3、Execution Environment Level(全局层面)

 执行环境(任务)的默认并行度可以通过调用setParallelism()方法指定。为了以并行度3来执行所有的算子、数据源和data sink, 可以通过如下的方式设置执行环境的并行度:

 执行环境的并行度可以通过显式设置算子的并行度而被重写:

FLINK安装及提交任务_第23张图片

2.4、Client Level

 并行度可以在客户端将job提交到Flink时设定。
对于CLI客户端,可以通过-p参数指定并行度

 ./bin/flink run -p 10 WordCount-java.jar

2.5、System Level(尽量不使用)

在系统级可以通过设置flink-conf.yaml文件中的parallelism.default属性来指定所有执行环境的默认并行度

2.6、并行度图解
Example1 :

FLINK安装及提交任务_第24张图片
解释:

 在fink-conf.yaml中 taskmanager.numberOfTaskSlots 默认值为1,即每个Task Manager上只有一个Slot ,此处是3
 Example中,WordCount程序设置了并行度为1,意味着程序 Source、Reduce、Sink在一个Slot中,占用一个Slot

Example2 :
解释:

通过设置并行度为2后,将占用2个Slot

FLINK安装及提交任务_第25张图片

Example3 :
解释: 通过设置并行度为9,将占用9个Slot
Example4 :
 解释:通过设置并行度为9,并且设置sink的并行度为1,则Source、Reduce将占用9个Slot,但是Sink只占用1个Slot

你可能感兴趣的:(flink)