验证Spark安装是否成功报错:/usr/lib/jdk/jdk1.8.0_221/bin/java: 没有那个文件或目录

使用命令./bin/run-example SparkPi,验证Spark安装是否成功报错:/usr/local/spark/bin/spark-class: 行 71: /usr/lib/jdk/jdk1.8.0_221/bin/java: 没有那个文件或目录

报错情况如下
在这里插入图片描述
测试java是否安装成功

java -version

在这里插入图片描述
检查java配置文件是否正确

sudo gedit ~/.bashrc

在这里插入图片描述
检查该文件中对应的java路径是否正确

#set java env
export JAVA_HOME=/usr/lib/jdk/jdk1.8.0_221
export JRE_HOME=${JAVA_HOME}/jre    
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib    
export PATH=${JAVA_HOME}/bin:$PATH

若不正确,则修改配置文件,并执行如下的命令使配置文件生效。(正确则忽略此步)

source ~/.bashrc

在这里插入图片描述

配置软连接
软连接相当于windows系统中的快捷键,部分软件可能会从/usr/bin目录下查找Java,因此添加该软连接防止其他软件查找不到的情况。

sudo update-alternatives --install /usr/bin/java  java  /usr/java/jdk1.8.0_221/bin/java 300
sudo update-alternatives --install /usr/bin/javac  javac  /usr/java/jdk1.8.0_221/bin/javac 300

在这里插入图片描述
再次尝试运行Spark自带的实例,若成功,则到此就结束,反之进行下一步。

配置修改文件spark-env中export (导入)jdk的路径
jdk找不到路径问题,/usr/local/spark/conf/spark-env.sh文件中添加如下的 Java环境信息(可加到文本末尾,注意jdk版本号),直接配置修改文件spark-env中export (导入)jdk的路径即可。
在这里插入图片描述

export JAVA_HOME=/usr/java/jdk1.8.0_221

验证Spark安装是否成功报错:/usr/lib/jdk/jdk1.8.0_221/bin/java: 没有那个文件或目录_第1张图片
再次进行验证

./bin/run-example SparkPi

验证Spark安装是否成功报错:/usr/lib/jdk/jdk1.8.0_221/bin/java: 没有那个文件或目录_第2张图片
到此,该问题就解决啦,Spark可以正常使用了

你可能感兴趣的:(验证Spark安装是否成功报错:/usr/lib/jdk/jdk1.8.0_221/bin/java: 没有那个文件或目录)