系统:Win7 旗舰版 64位 sp1
JDK:1.8.0
Spark:2.3.2
Hadoop:2.7
Scala:2.11.8
http://spark.apache.org/downloads.html
https://github.com/sardetushar/hadooponwindows
https://archive.apache.org/dist/hadoop/core/hadoop-2.7.1/
略
http://www.jetbrains.com/idea/download/#section=windows
注意选择版本
https://www.scala-lang.org/download/2.11.8.html
http://plugins.jetbrains.com/plugin/1347-scala
选择版本下载,下载完毕之后,应该有以下7个文件:
安装ideaIC-2017.3.5.exe。
除了scala-intelliJ-bin-2017.3.15不需要解压外,其他能解压的都需要解压。
重要:配置之前,需要把2.2中的bin文件夹替换掉2.3中的bin文件夹
重要:配置之前,需要把2.2中的bin文件夹替换掉2.3中的bin文件夹
重要:配置之前,需要把2.2中的bin文件夹替换掉2.3中的bin文件夹
重要的事说三遍!
JAVA_HOME:java所在的目录,注意不是bin目录
PATH:%JAVA_HOME%\bin
ClassPath:%JAVA_HOME%\lib;%JAVA_HOME%\lib\tools.jar
HADOOP_HOME:hadoop解压的目录
Path:%HADOOP_HOME%\bin
SPARK_HOME:spark解压的目录
Path:%SPARK_HOME%\bin
SCALA_HOME:scala解压的目录
Path:%SCALA_HOME%\bin
next>next>finesh!
此时可以看到 external library只有一个jdk1.8
选择scala的解压的目录,我原来装过一个2.11.12版本的,所以,我这里会有两个版本,应该选择2.11.8版本。
此时,新建项目之后可以看到,external libraryes 出现了 jdk1.8 和scala sdk。
我们最后再添加spark library
file>project structure
Libraries > +
之后添加解压后的spark下的jars
最终可以看到External Libraries出现了三个。
import org.apache.spark._
object SparkDemo {
def main(args: Array[String]): Unit = {
val masterUrl = "local[1]"
val conf = new SparkConf().setAppName("helenApp").setMaster(masterUrl)
val sc = new SparkContext(conf)
val rdd = sc.parallelize(List(1, 2, 3, 4, 5, 6)).map(_ * 3)
rdd.filter(_ > 10).collect().foreach(println)
println(rdd.reduce(_ + _))
println("hello world")
}
}
小白记录,大佬勿喷!
简书链接:https://www.jianshu.com/p/9f40fe1b6587
所有软件,打包下载,不用再去折腾版本之间的问题。
下载链接:
https://download.csdn.net/download/xxubing123/10922008
参考文章:
https://blog.csdn.net/weixin_42596381/article/details/81006544