win 10下spark的安装及配置

一级标题

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 步骤
  • 一、jdk配置
  • 二、Hadoop配置
  • 三、Spark配置
  • 四、scala安装
  • 五、运行测试


步骤


提示:以下是本篇文章正文内容,下面案例可供参考

一、jdk配置

在jdk官网中下载与自己电脑相应配置的jdk。

点击电脑的设置——>关于——>高级系统设置——>环境变量中配置jdk环境变量。
win 10下spark的安装及配置_第1张图片

点击新建,输入下图中的变量名称,变量值填写你自己安装的jdk目录路径。建好后点击确定
win 10下spark的安装及配置_第2张图片
在系统变量中添加

变量名:CLASSPATH
变量值:%JAVA_HOME%\lib

在Path中添加

%JAVA_HOME%\bin

win 10下spark的安装及配置_第3张图片

二、Hadoop配置

在系统变量中添加:

变量名:HADOOP_HOME
变量值:安装路径

Path中添加:

%HADOOP_HOME%\bin

三、Spark配置

在系统变量中添加:

变量名:SPARK_HOME
变量值:安装路径

Path中添加:

%SPARK_HOME%\bin
%SPARK_HOME%\sbin

四、scala安装

scala的环境变量在下载安装时会自动配置好,scala下载官网:
https://www.scala-lang.org/download/2.11.8.html

五、运行测试

按住win+R键,输入cmd
win 10下spark的安装及配置_第4张图片
进入DOS窗口后输入scala,如果成功则会显示下图结果。
win 10下spark的安装及配置_第5张图片
进入spark安装目录下的bin目录,在地址栏中输入cmd,按回车。
win 10下spark的安装及配置_第6张图片
进入DOS窗口输入spark-shell后出现下图窗口说明安装并且启动成功。
win 10下spark的安装及配置_第7张图片

你可能感兴趣的:(环境配置栏,spark)