IDEA设置默认的maven环境、加入scala环境、spark-scala项目pom设置、打包、提交命令

当前项目选settings...,以后所有其他项目选settings for new projects...

IDEA设置默认的maven环境、加入scala环境、spark-scala项目pom设置、打包、提交命令_第1张图片

搜索到maven选项卡,设置三处:maven home、settings.xml、local repository

IDEA设置默认的maven环境、加入scala环境、spark-scala项目pom设置、打包、提交命令_第2张图片

 

新建maven项目,加入scala环境,file-project structure-copy to project libraries

IDEA设置默认的maven环境、加入scala环境、spark-scala项目pom设置、打包、提交命令_第3张图片

IDEA设置默认的maven环境、加入scala环境、spark-scala项目pom设置、打包、提交命令_第4张图片

IDEA设置默认的maven环境、加入scala环境、spark-scala项目pom设置、打包、提交命令_第5张图片

 

新建scala文件夹,右键文件夹make dir as--sources root,在其中new一个scala class,注意类型为object,名称需包含包名(com.baidu.sh.xzq.wordcount)

 

pom设置



    4.0.0

    com.baidu.sh.xzq
    spark
    1.0-SNAPSHOT

    
        
            org.apache.spark
            spark-core_2.11
            2.3.2
        
    
    
    
        

            
                org.scala-tools
                maven-scala-plugin
                2.15.1
                
                    
                        
                            compile
                            testCompile
                        
                    
                
            

        
    

 

示例代码

package com.baidu.sh.xzq

import org.apache.spark.{SparkConf, SparkContext}

object wordcount {
  def main(args: Array[String]): Unit = {
    val conf=new SparkConf()
    conf.setAppName("spark-scala")
    val sc=new SparkContext(conf)
    val rdd=sc.textFile("/hadoop/profile")
    rdd.flatMap(_.split(""))
      .map((_,1))
      .reduceByKey(_+_)
      .sortBy(_._2)
      .saveAsTextFile("/hadoop/prof")
    sc.stop()
  }
}

 

打包,右侧栏选择clean,再执行package

IDEA设置默认的maven环境、加入scala环境、spark-scala项目pom设置、打包、提交命令_第6张图片

之后可在target文件加下发现打包好的jar包,clean后又可删除这些文件夹

IDEA设置默认的maven环境、加入scala环境、spark-scala项目pom设置、打包、提交命令_第7张图片

 

提交命令(class名可在类名上copy reference得到)

spark-submit --class com.baidu.sh.xzq.workcount /share/spark-1.0-SNAPSHOT.jar

你可能感兴趣的:(IntelliJ,IDEA,Maven)