本地单机模式,一般用于测试环境是否搭建成功,很少使用
flink自带集群,开发测试使用
StandAloneHA:独立集群的高可用模式,也是flink自带,用于开发测试环境
计算资源统一由hadoop yarn管理,生产环境使用
上传到hadoop001
[root@hadoop001 software]# tar -xzvf flink-1.12.2-bin-scala_2.11.tgz -C /export/servers/
[root@hadoop001 software]# vi /etc/profile
[root@hadoop001 software]# source /etc/profile
三、启动scala sell 交互界面
[root@hadoop001 flink-1.12.2]# start-scala-shell.sh local
准备好数据文件
单词计数
benv.readTextFile("/root/a.txt").flatMap(_.split(" ")).map((_,1)).groupBy(0).sum(1).print()
Ctrl+d退出
1、启动local本地模式
只有hadoop001上有节点
hadoop001:8081
JobManager |
TaskManager |
|
hadoop01 |
y |
y |
hadoop02 |
n |
y |
hadoop03 |
n |
y |
[root@hadoop001 servers]# scp -r flink-1.12.2/ hadoop002:$PWD
[root@hadoop001 servers]# scp -r flink-1.12.2/ hadoop003:$PWD
[root@hadoop001 servers]# source /etc/profile
flink run examples/batch/WordCount.jar --input hdfs://hadoop001:9000/input/ --output hdfs://hadoop001:9000/output/result.txt
[root@hadoop001 flink-1.12.2]# hadoop classpath
flink run examples/batch/WordCount.jar --input hdfs://hadoop001:9000/input/ --output hdfs://hadoop001:9000/output/result.txt
JobManager TaskManager
hadoop01 y y
hadoop02 Y y
hadoop03 n y
因为缺少flink整合hadoop的jar包,需要从flink官网下载,放入flink的lib目录,并分发至其他节点Apache Flink: Downloads
重新启动
Zookeeper
dfs
yarn
flink
historyserver
[root@hadoop001 bin]# yarn-session.sh -n 2 -tm 800 -s 1 -d
-n:表示申请的容器,也就是worker的数量,也即cpu的核心数
-tm:表示每个worker(taskManager)的内存大小
-s:表示每个worker的slot数量
-d:表示在后台运行
[root@hadoop001 batch]# yarn application -kill application_1649659166087_0001
[root@hadoop001 batch]# flink run -m yarn-cluster -yjm 1024 -ytm 1024 WordCount.jar
-m:jobmanager的地址
-yjm:jobmanager的内存大小
-ytm:taskmanager的内存大小
查看到没有相关进程,进程完成后会自动关闭