Spark IDEA环境搭建

创建 Maven 项目

增加 Scala 插件

添加依赖关系 

基本连接与关闭


创建 Maven 项目

创建新的maven

Spark IDEA环境搭建_第1张图片

Spark IDEA环境搭建_第2张图片

Spark IDEA环境搭建_第3张图片

删除src目录

Spark IDEA环境搭建_第4张图片

创建spark.core工程文件

Spark IDEA环境搭建_第5张图片

Spark IDEA环境搭建_第6张图片

Spark IDEA环境搭建_第7张图片

Spark IDEA环境搭建_第8张图片

增加 Scala 插件

Spark 由 Scala 语言开发的,所以本课件接下来的开发所使用的语言也为 Scala,咱们当 前使用的 Spark 版本为 3.0.0,默认采用的 Scala 编译版本为 2.12,所以后续开发时。我们依 然采用这个版本。开发前请保证 IDEA 开发工具中含有 Scala 开发插件

先提前准备好scala2.12的编译

Spark IDEA环境搭建_第9张图片

 如果未采用可以看之前的流程进行:

初探Scala_open_test01的博客-CSDN博客

Spark IDEA环境搭建_第10张图片

 查看框架支持

Spark IDEA环境搭建_第11张图片

选择scala框架支持

Spark IDEA环境搭建_第12张图片

Spark IDEA环境搭建_第13张图片

 测试环境

Spark IDEA环境搭建_第14张图片

添加依赖关系 


 
 org.apache.spark
 spark-core_2.12
 3.0.0
 
 
    org.codehaus.janino
    janino
    3.0.12
 

Spark IDEA环境搭建_第15张图片

 基本连接与关闭

  def main(args: Array[String]): Unit = {
    //建立spark框架连接
      //基本配置
    val sparkConf = new SparkConf().setMaster("local").setAppName("WordCount")
        //sparkConf基础配置对象 sparkConf环境 local本地环境 应用名称:WordCount
    val sc = new SparkContext(sparkConf) //将sparkConf传入核心对象中


    //关闭spark框架连接
    sc.stop()
  }

运行查看日志信息 

Spark IDEA环境搭建_第16张图片

你可能感兴趣的:(Spark,spark,scala,大数据)