IDE的使用,打包spark应用提交

hadoop,spark,kafka交流群:224209501

标签(空格分隔): spark

1,首先启动

cd /opt/modules/idea-IC-141.178.9/
bin/idea.sh 

2,导入scala插件

1.png-94.7kB
2.png-158.5kB
3.png-18.9kB
4.png-67.3kB
5.png-65.3kB

3,导入spark源码

6.png-19kB
7.png-31.5kB
8.png-21.9kB
9.png-50.4kB
10.png-37.5kB
11.png-20.4kB
12.png-47.8kB
13.png-56.8kB
14.png-19.3kB
15.png-80.8kB
IDE的使用,打包spark应用提交_第1张图片

4,创建scala工程

1.png-76.6kB
2.png-28.4kB
3.png-37kB
4.png-51.5kB
创建三个目录.png-52.6kB
5.png-61.3kB
6.png-32.8kB
7.png-67.4kB
9.png-47.2kB
10.png-111.1kB
11.png-74.7kB
12.png-110.9kB
IDE的使用,打包spark应用提交_第2张图片
14.png-115.7kB

5,导出jar包

15.png-97.2kB
16.png-32.9kB
17.png-43kB
18.png-75.5kB
19.png-107.1kB
20.png-113.2kB

6,示例代码

前提是
1,启动hdfs的namenode,datanode。
2,启动spark的master和slaves,本地测试无需启动。

package sparkIDEProgram
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
/**
 * Created by hadoop on 1/1/16.
 */
object SimpleApp {
  def main(args: Array[String]) {
    val logFile = "hdfs://spark.learn.com:8020/user/hadoop/spark/input/wc.input" // Should be some file on your system
    val conf = new SparkConf()
        .setAppName("Simple Application")
        .setMaster("spark://spark.learn.com:7077")//本地测试需要修改为local
    val sc = new SparkContext(conf)
    val logData = sc.textFile(logFile, 2).cache()
    val numAs = logData.filter(line => line.contains("a")).count()
    val numBs = logData.filter(line => line.contains("b")).count()
    println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
    sc.stop()
  }
}

7,提交打包好的应用

bin/spark-submit /opt/sparkTest/sparkTest.jar

webapp运行成功.png-65.4kB
运行成功.png-35.8kB
输出结果.png-44.6kB

你可能感兴趣的:(hadoop,ide,spark,hadoop,spark应用打包,scala)