IDEA安装Spark

IDEA安装Spark

  • 两种方式:
  1. 从本地安装的Spark中导入 jar包,File - Project Structure - Libraies - "+" - java - 选择spark目录下jars文件夹
  2. 通过Maven添加pom依赖

本地安装演示:

 

pom添加演示:

 

图文步骤:

  1. 本地安装:
  • File - Project Structure - Libraies - "+" - java

IDEA安装Spark_第1张图片

 

  • 选择spark目录下jars文件夹

IDEA安装Spark_第2张图片

 

     2. Maven项目,pom.xml文件中添加Spark依赖,需要联网下载,或者本地库中已经下载好依赖包

IDEA安装Spark_第3张图片

 
  
    2.3.3
  


 
  
    
    
      org.apache.spark
      spark-core_2.11
      ${spark.version}
    
    
    
      org.apache.spark
      spark-sql_2.11
      ${spark.version}
    
    
    
      org.apache.spark
      spark-streaming_2.11
      ${spark.version}
      provided
    
  

 

你可能感兴趣的:(Spark)