spark 安装和配置

1.Windows下配置和安装

(1) java jdk的配置

(2) 编辑器推荐使用 intellij IDEA;eclipse maven配置相对较难

(3) spark-2.0.0-bin-hadoop2.6  就是它的配置,环境变量etc  ,注意spark版本号和Hadoop的

(4) 然后编辑器下scala 插件,若网不好,就直接从网址下来,再把插件插进去

(5) 基于sbt 开发,下载sbt

(6) bulit.sbt 配置好spark 

(7) 愉快的开发,时间主要花费在下载上,针对每一个步骤,网上查找配置方法

2.Linux 下配置和安装

(1)  使用命令直接把jdk 和spark-2.0.0-bin-hadoop2.6  下载下来

(2) 把(1)步骤下载的东西环境变量配置好

(3) 就完成单机spark的配置

 

你可能感兴趣的:(spark,配置和安装,Windows和Linux下)