IDEA的使用

1,首先启动

cd /opt/modules/idea-IC-141.178.9/
bin/idea.sh 
  • 1
  • 2
  • 1
  • 2

2,导入scala插件

IDEA的使用_第1张图片
IDEA的使用_第2张图片
IDEA的使用_第3张图片
IDEA的使用_第4张图片
IDEA的使用_第5张图片

3,导入spark源码

IDEA的使用_第6张图片
IDEA的使用_第7张图片
IDEA的使用_第8张图片
IDEA的使用_第9张图片
IDEA的使用_第10张图片
IDEA的使用_第11张图片
IDEA的使用_第12张图片
IDEA的使用_第13张图片
IDEA的使用_第14张图片
IDEA的使用_第15张图片

4,创建scala工程

IDEA的使用_第16张图片
IDEA的使用_第17张图片
IDEA的使用_第18张图片
IDEA的使用_第19张图片
IDEA的使用_第20张图片
IDEA的使用_第21张图片
IDEA的使用_第22张图片
IDEA的使用_第23张图片
IDEA的使用_第24张图片
IDEA的使用_第25张图片
IDEA的使用_第26张图片
IDEA的使用_第27张图片

IDEA的使用_第28张图片

5,导出jar包

IDEA的使用_第29张图片
IDEA的使用_第30张图片
IDEA的使用_第31张图片
IDEA的使用_第32张图片
IDEA的使用_第33张图片
IDEA的使用_第34张图片

6,示例代码

前提是
1,启动hdfs的namenode,datanode。
2,启动spark的master和slaves,本地测试无需启动。

package sparkIDEProgram
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
/**
 * Created by hadoop on 1/1/16.
 */
object SimpleApp {
  def main(args: Array[String]) {
    val logFile = "hdfs://spark.learn.com:8020/user/hadoop/spark/input/wc.input" // Should be some file on your system
    val conf = new SparkConf()
        .setAppName("Simple Application")
        .setMaster("spark://spark.learn.com:7077")//本地测试需要修改为local
    val sc = new SparkContext(conf)
    val logData = sc.textFile(logFile, 2).cache()
    val numAs = logData.filter(line => line.contains("a")).count()
    val numBs = logData.filter(line => line.contains("b")).count()
    println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
    sc.stop()
  }
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21

7,提交打包好的应用

bin/spark-submit /opt/sparkTest/sparkTest.jar
  • 1
  • 1

IDEA的使用_第35张图片
IDEA的使用_第36张图片
IDEA的使用_第37张图片

你可能感兴趣的:(spark,IDEA)