Spark2.1.1

版本信息

spark2.1.1
scala 2.11.8

1.SBT
新建SBT项目
Spark2.1.1_第1张图片
选择scala:2.11.8
Spark2.1.1_第2张图片
添加依赖:spark_core
Spark2.1.1_第3张图片

name := "SBTTest"

version := "1.0"

scalaVersion := "2.11.8"

libraryDependencies += "org.apache.spark" %% "spark-core" % "2.1.1"

scala wordcount代码
Spark2.1.1_第4张图片

object WordCount {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local[4]").setAppName("FirstSparkDemo")
    val sc = new SparkContext(conf)
    //② 从Scala 集合或者文件系统中创建RDD
    //通过Scala 集合创建 RDD
    //从HDFS 上创建RDD
    val lines = sc.textFile("hdfs://172.17.11.85:9000/input/file.txt")
    val flatRDD = lines.flatMap(_.split(" "))
    println("size:"+lines.partitions.size)
    flatRDD.map((_, 1)).reduceByKey(_ + _).collect.foreach(println)

  }
}

选择SBTshell,输入compile,package
Spark2.1.1_第5张图片

Spark2.1.1_第6张图片.

这里写图片描述

查看jar包

Spark2.1.1_第7张图片

2.Maven

新建Maven项目
Spark2.1.1_第8张图片
在pom文件中添加依赖
Spark2.1.1_第9张图片

<dependencies>
        <dependency>
            <groupId>org.apache.sparkgroupId>
            <artifactId>spark-core_2.11artifactId>
            <version>2.1.1version>
        dependency>
    dependencies>

scala wordcount代码
Spark2.1.1_第10张图片

编译打包

Spark2.1.1_第11张图片
查看Jar包
Spark2.1.1_第12张图片

你可能感兴趣的:(spark,idea,maven,spark)