spark-shell运行时报‘“E:Program”’'不是内部或外部命令,也不是可运行的程序

今天在Windows10上安装spark,安装流程参照

http://blog.csdn.net/w417950004/article/details/77203501

安装完成后直接在CMD中执行spark-shell报错

‘“E:Program”’'不是内部或外部命令,也不是可运行的程序

一般出现这个问题就是,Path路径中存在空格,但是我得SPARK_HOME环境变量中不存空格,找了好久,发现在spark的安装目录下的bin目录下的spark-class2.cmd文件中(spark1.x的版本中,直接是spark-class.cmd文件),在执行启动过程中,会执行这个文件,这个文件中会调用JAVA_HOME环境变量,而我的JAVA_HOME环境变量是在E:\Program Files目录下,所以在执行这里报错了。

然后,我把jdk卸载了,然后重新安装的jdk,这次安装时不放在Program Files目录下,而是放在没有空格的路径下。

如此这般后,就OK 了

spark-shell运行时报‘“E:Program”’'不是内部或外部命令,也不是可运行的程序_第1张图片

你可能感兴趣的:(hadoop,spark)