spark之开发环境配置(windows)

特注:windows下开发spark不需要在本地安装hadoop,但是需要winutils.exe、hadoop.dll等文件,前提是你已经安装了eclipse、maven、jdk等软件。spark支持jdk版本建议是1.8及以上,如果开发spark建议将jdk编译版本设置为1.8。

Spark

下载

网址:http://spark.apache.org/downloads.html

 spark之开发环境配置(windows)_第1张图片

spark之开发环境配置(windows)_第2张图片

解压

 spark之开发环境配置(windows)_第3张图片

环境变量配置

在cmd下输入以下命令:setx PATH “F:\spark\spark-2.4.0-bin-hadoop2.7\bin;%PATH%”

验证配置

在cmd下输入spark-shell命令

 spark之开发环境配置(windows)_第4张图片

如上,可以看到对应的spark、scala、java版本,同时也看到了异常信息,该异常信息是由于hadoop导致的,下面来配置hadoop。

Hadoop

下载

网址:http://hadoop.apache.org/releases.html

 spark之开发环境配置(windows)_第5张图片

spark之开发环境配置(windows)_第6张图片

解压

 spark之开发环境配置(windows)_第7张图片

环境变量配置

在cmd下依次输入以下两行命令:

  • setx HADOOP_HOME F:\hadoop\hadoop-2.7.7
  • setx PATH “%HADOOP_HOME%\bin;%PATH%”

winutils下载

网址:https://github.com/steveloughran/winutils

下载对应版本的bin目录直接替换本地bin目录即可。

验证配置

1、在cmd下输入spark-shell命令

 spark之开发环境配置(windows)_第8张图片

此时即不会出现之前的异常提示。

2、访问控制台中的webui如下:http://127.0.0.1:4040/jobs/

 spark之开发环境配置(windows)_第9张图片

 

你可能感兴趣的:(spark之开发环境配置(windows))