Flink高手之路:Flink的环境搭建

一、Flink的安装模式

1、local(本地)

本地单机模式,一般用于测试环境是否搭建成功,很少使用

2、standload(独立集群模式

flink自带集群,开发测试使用

StandAloneHA:独立集群的高可用模式,也是flink自带,用于开发测试环境

3、on yarn(flink on yarn)

计算资源统一由hadoop yarn管理,生产环境使用

二、Local模式下的安装

1、下载

Flink高手之路:Flink的环境搭建_第1张图片

Flink高手之路:Flink的环境搭建_第2张图片 

 2、上传文件

上传到hadoop001

Flink高手之路:Flink的环境搭建_第3张图片

Flink高手之路:Flink的环境搭建_第4张图片

3、解压

[root@hadoop001 software]# tar -xzvf flink-1.12.2-bin-scala_2.11.tgz -C /export/servers/

4、查看文件目录

Flink高手之路:Flink的环境搭建_第5张图片

5、修改环境变量

[root@hadoop001 software]# vi /etc/profile

Flink高手之路:Flink的环境搭建_第6张图片

 6、使环境变量起作用

[root@hadoop001 software]# source /etc/profile

Flink高手之路:Flink的环境搭建_第7张图片

7、查看安装成功的flink

Flink高手之路:Flink的环境搭建_第8张图片

 三、启动scala sell 交互界面

[root@hadoop001 flink-1.12.2]# start-scala-shell.sh local

Flink高手之路:Flink的环境搭建_第9张图片

1、scala命令行示例——单词计数

准备好数据文件

单词计数

benv.readTextFile("/root/a.txt").flatMap(_.split(" ")).map((_,1)).groupBy(0).sum(1).print()

Flink高手之路:Flink的环境搭建_第10张图片 

Ctrl+d退出

Flink高手之路:Flink的环境搭建_第11张图片

 

四、启动flink本地集群

1、启动local本地模式

Flink高手之路:Flink的环境搭建_第12张图片

只有hadoop001上有节点

Flink高手之路:Flink的环境搭建_第13张图片

2、使用webui查看

hadoop001:8081

Flink高手之路:Flink的环境搭建_第14张图片

3、Local集群上测试运行任务——单词计数

1)准备jar包

Flink高手之路:Flink的环境搭建_第15张图片

2)提交任务

3)在webui查看完整任务过程

Flink高手之路:Flink的环境搭建_第16张图片

4)查看结果

Flink高手之路:Flink的环境搭建_第17张图片 

五、Standalone模式安装 

1、集群规划

JobManager

TaskManager

hadoop01

y

y

hadoop02

n

y

hadoop03

n

y

 2、修改Flink配置文件

Flink高手之路:Flink的环境搭建_第18张图片

1)修改flink-conf.ymal配置文件

Flink高手之路:Flink的环境搭建_第19张图片

Flink高手之路:Flink的环境搭建_第20张图片

 Flink高手之路:Flink的环境搭建_第21张图片

 2)Master

Flink高手之路:Flink的环境搭建_第22张图片

3)workers

Flink高手之路:Flink的环境搭建_第23张图片 

4)环境变量

Flink高手之路:Flink的环境搭建_第24张图片 

3、分发文件

1)分发flink 

[root@hadoop001 servers]# scp -r flink-1.12.2/ hadoop002:$PWD

[root@hadoop001 servers]# scp -r flink-1.12.2/ hadoop003:$PWD

2)分发环境变量

Flink高手之路:Flink的环境搭建_第25张图片

4、使环境变量起作用

[root@hadoop001 servers]# source /etc/profile

5、启动flink集群

Flink高手之路:Flink的环境搭建_第26张图片

 6、webui查看

Flink高手之路:Flink的环境搭建_第27张图片

7、启动历史服务器

Flink高手之路:Flink的环境搭建_第28张图片

1)上传连接器

Flink高手之路:Flink的环境搭建_第29张图片 

 2)启动historyserver服务

Flink高手之路:Flink的环境搭建_第30张图片

8、历史服务器webui查看

Flink高手之路:Flink的环境搭建_第31张图片 

9、Standalone测试任务-单词计数

1)带参数提交任务

flink run examples/batch/WordCount.jar --input hdfs://hadoop001:9000/input/ --output hdfs://hadoop001:9000/output/result.txt

2)出错

Flink高手之路:Flink的环境搭建_第32张图片

3)添加hadoop classpath配置

[root@hadoop001 flink-1.12.2]# hadoop classpath

4)重新运行

flink run examples/batch/WordCount.jar --input hdfs://hadoop001:9000/input/ --output hdfs://hadoop001:9000/output/result.txt

Flink高手之路:Flink的环境搭建_第33张图片

 六、Standalone-HA模式安装

1、集群规划

JobManager     TaskManager

hadoop01       y                y

hadoop02       Y                y

hadoop03       n                y

2、停止flink集群

Flink高手之路:Flink的环境搭建_第34张图片

3、修改flink配置文件

Flink高手之路:Flink的环境搭建_第35张图片 

Flink高手之路:Flink的环境搭建_第36张图片 

4、修改master文件

Flink高手之路:Flink的环境搭建_第37张图片

 

5、同步配置文件 

 Flink高手之路:Flink的环境搭建_第38张图片

6、修改hadoop002上的flink-core.yaml

Flink高手之路:Flink的环境搭建_第39张图片 

7、重新启动flink集群 

Flink高手之路:Flink的环境搭建_第40张图片

8、相关进程未启动

Flink高手之路:Flink的环境搭建_第41张图片

因为缺少flink整合hadoop的jar包,需要从flink官网下载,放入flink的lib目录,并分发至其他节点Apache Flink: Downloads

Flink高手之路:Flink的环境搭建_第42张图片

Flink高手之路:Flink的环境搭建_第43张图片

重新启动

Flink高手之路:Flink的环境搭建_第44张图片

Flink高手之路:Flink的环境搭建_第45张图片

 Flink高手之路:Flink的环境搭建_第46张图片

9、Flink的webui查看

Flink高手之路:Flink的环境搭建_第47张图片

Flink高手之路:Flink的环境搭建_第48张图片

 

 七、Flink on yarn的安装

1、修改yarn-site.xml配置文件

2、分发配置文件

 

 3、启动相关服务

Zookeeper

dfs

yarn

flink

historyserver

Flink高手之路:Flink的环境搭建_第49张图片

4、Session模式提交任务

1)开启会话

Flink高手之路:Flink的环境搭建_第50张图片

[root@hadoop001 bin]# yarn-session.sh -n 2 -tm 800 -s 1 -d

-n:表示申请的容器,也就是worker的数量,也即cpu的核心数

-tm:表示每个worker(taskManager)的内存大小

-s:表示每个worker的slot数量

-d:表示在后台运行

Flink高手之路:Flink的环境搭建_第51张图片

2)jps

Flink高手之路:Flink的环境搭建_第52张图片

3)查看yarn的webui

Flink高手之路:Flink的环境搭建_第53张图片 

4)提交任务-单词计数

Flink高手之路:Flink的环境搭建_第54张图片 

5)查看任务完成

 

Flink高手之路:Flink的环境搭建_第55张图片

Flink高手之路:Flink的环境搭建_第56张图片

6)再提交一个任务

Flink高手之路:Flink的环境搭建_第57张图片

Flink高手之路:Flink的环境搭建_第58张图片

7)再次查看yarn的webui

Flink高手之路:Flink的环境搭建_第59张图片

8)关闭yarn-sesion

[root@hadoop001 batch]# yarn application -kill application_1649659166087_0001

Flink高手之路:Flink的环境搭建_第60张图片

 5、Per-job模式提交任务

1)提交任务

[root@hadoop001 batch]# flink run -m yarn-cluster -yjm 1024 -ytm 1024 WordCount.jar

-m:jobmanager的地址

-yjm:jobmanager的内存大小

-ytm:taskmanager的内存大小

Flink高手之路:Flink的环境搭建_第61张图片

Flink高手之路:Flink的环境搭建_第62张图片

2)查看yarn的webui

Flink高手之路:Flink的环境搭建_第63张图片

Flink高手之路:Flink的环境搭建_第64张图片

3)再次提交

Flink高手之路:Flink的环境搭建_第65张图片

4)查看jps情况

查看到没有相关进程,进程完成后会自动关闭

Flink高手之路:Flink的环境搭建_第66张图片

6、Flink提交参数任务总结

Flink高手之路:Flink的环境搭建_第67张图片

 

你可能感兴趣的:(Flink,flink)