Spark-IDEA创建Spark项目(scala)

安装JDK、Scala、IDEA见我的其他博客有详细的介绍。

启动idea:

Spark-IDEA创建Spark项目(scala)_第1张图片

进入到某个文件夹:

Spark-IDEA创建Spark项目(scala)_第2张图片

File-NewProject:Scala-IDEA

Spark-IDEA创建Spark项目(scala)_第3张图片

Project Name:

Spark-IDEA创建Spark项目(scala)_第4张图片

File-Project Structure-Modules:新建文件夹,设为source

Spark-IDEA创建Spark项目(scala)_第5张图片

添加Library:

scala SDK:

Spark-IDEA创建Spark项目(scala)_第6张图片

 

Java Library:选择$SPARK_HOME/jar/下的所有包:

Spark-IDEA创建Spark项目(scala)_第7张图片

因为太多分两次导入的所有会有两个:

Spark-IDEA创建Spark项目(scala)_第8张图片

 

新建包,创建文件:

Spark-IDEA创建Spark项目(scala)_第9张图片

下面的案例使用scala.class。注意hadoop,spark要开启。

相同的案列的spark-shell实现在:https://blog.csdn.net/qq_25948717/article/details/83114400

直接在spark-shell下的案列不需要new出conf,sc,启动时已经初始化了,代码编写时却不能省略。

在IDEA里面编写的代码既可以直接在IDEA中运行或调试,也可以打包后提交到spark-shell。

Spark-IDEA创建Spark项目(scala)_第10张图片

注意提交到spark-submit时,读取的是HDFS的文件系统,输出的也是。

如果这里是通过arg参数来设置路径参数,则需要按照下面方式设置

 

1.直接运行:

 运行之前需要进行编译:Build-Make Project或者Ctrl+F9

 

  编译通过后,在代码界面单击鼠标右键,选择运行程序弹出“运行/调试配置”,或者下面:

Spark-IDEA创建Spark项目(scala)_第11张图片

选择输入设置的两个路径参数:路径是本地里面的,不是hdfs里面的,因为这个本地开发。Main Class也要选

Spark-IDEA创建Spark项目(scala)_第12张图片

单击Run-Run或Shift+F10运行:

运行可能会出现问题,把scala-SDK换成2.11版就行。

2.打包运行

Spark-IDEA创建Spark项目(scala)_第13张图片

Spark-IDEA创建Spark项目(scala)_第14张图片

设置包的输出路经:

Spark-IDEA创建Spark项目(scala)_第15张图片

设置完毕后:

Spark-IDEA创建Spark项目(scala)_第16张图片

Spark-IDEA创建Spark项目(scala)_第17张图片

生成项目的打包文件:

将文件提交到spark集群就可以了:

Spark-IDEA创建Spark项目(scala)_第18张图片

提交:(参数输入)

Spark-IDEA创建Spark项目(scala)_第19张图片

如果按照上面的程序则按下提交既可以:

Spark-IDEA创建Spark项目(scala)_第20张图片

如果提交后出现错误,可能是由于scala-SDK的版本所致,从创建项目开始都选择2.11.7版本就可以了。

可能出现该问题:但是不影响运行结果:

Spark-IDEA创建Spark项目(scala)_第21张图片

查看结果

Spark-IDEA创建Spark项目(scala)_第22张图片

运行:

会看到:

Spark-IDEA创建Spark项目(scala)_第23张图片

网页可查看:

Spark-IDEA创建Spark项目(scala)_第24张图片

你可能感兴趣的:(Spark,Scala)