Flink部署后启动不成功错误

案例:Flink1.9

 

启动Flink

查看jps发现没有启动

Master

Slave

如果启动成功

Master应该有StandaloneSessionClusterEntrypoint

Slave应该有TaskManagerRunner

查看启动日志

Flink部署后启动不成功错误_第1张图片

异常日志

org.apache.flink.core.fs.UnsupportedFileSystemSchemeException: Could not find a file system implementation for scheme 'hdfs'. The scheme is not directly supported by Flink and no Hadoop file system to support this scheme could be loaded.

日志表明:无法加载hadoop的hdfs,Flink不支持。

解决方案

下载Flink对应的hadoop插件,放入flink的lib中。

在lib中不存在hadoop的插件

下载插件的官网地址:https://flink.apache.org/downloads.html

如:我的hadoop版本是2.7,下载hadoop的插件放到flink的lib中。

Flink部署后启动不成功错误_第2张图片

Flink部署后启动不成功错误_第3张图片

重新启动Flink

Flink部署后启动不成功错误_第4张图片

Flink部署后启动不成功错误_第5张图片

启动成功

再登录Master:8082查看Web界面(一般是8081,只是我这边安装了Spark,避免发生冲突改成使用8082)

Flink部署后启动不成功错误_第6张图片

到此问题解决

 

你可能感兴趣的:(大数据,flink)