spark集群模式下textFile读取file本地文件报错解决

前言

如果在spark-shell中使用textFile(“file://path”)演示,在local模式下是没有问题的,因为毕竟就是在本机运行,读取本地的文件。但是如果spark-shell --master指定spark集群的话,这样运行就会有问题,会报找不到文件的错误。

解决方案

那么解决的方案其实也比较简单,就是在所有的集群节点上相同的path下上传该文件。然后在textFile(“file://{path}”)中指定该path即可。

注意: 各个节点的文件必须相同,否则依然会报错。

后话

博主的所有博文已经准备迁移到个人博客-桥路’s blog上,后续也会主要更新个人博客,如果大家需要可以去blog上多交流!感谢大家!

你可能感兴趣的:(问题解决,大数据)