#转#Spark核心编程进阶-spark-submit示例以及基础参数讲解

使用spark-submit提交spark应用

将我们的spark工程打包好之后,就可以使用spark-submit脚本提交工程中的spark应用了
spark-submit脚本会设置好spark的classpath环境变量(用于类加载)和相关的依赖,而且还可以支持多种不同的集群管理器和不同的部署模式

以下是一个spark应用提交脚本的示例,以及其基本语法
一般会将执行spark-submit脚本的命令,放置在一个自定义的shell脚本里面,所以说这是比较灵活的一种做法
建议大家还是要熟悉linux操作系统,不需要太熟悉,会基本的操作就可以了
``
wordcount.sh

/usr/local/spark/bin/spark-submit
--class org.leo.spark.study.WordCount
--master spark://192.168.0.101:7077
--deploy-mode client
--conf =
/usr/local/spark-study/spark-study.jar
${1}

以下是上面的spark-submit

--class: spark应用程序对应的主类,也就是spark应用运行的主入口,通常是一个包含了main方法的java类或scala类,需要包含全限定包名,比如org.leo.spark.study.WordCount
--master: spark集群管理器的master URL,standalone模式下,就是ip地址+端口号,比如spark://192.168.0.101:7077,standalone默认端口号就是7077
--deploy-mode: 部署模式,决定了将driver进程在worker节点上启动,还是在当前本地机器上启动;默认是client模式,就是在当前本地机器上启动driver进程,如果是cluster,那么就会在worker上启动
--conf: 配置所有spark支持的配置属性,使用key=value的格式;如果value中包含了空格,那么需要将key=value包裹的双引号中
application-jar: 打包好的spark工程jar包,在当前机器上的全路径名
application-arguments: 传递给主类的main方法的参数; 在shell中用${1}这种格式获取传递给shell的参数;然后在比如java中,可以通过main方法的args[0]等参数获取

示例:

使用local本地模式,以及8个线程运行

--class 指定要执行的main类

--master 指定集群模式,local,本地模式,local[8],进程中用几个线程来模拟集群的执行

./bin/spark-submit
--class org.leo.spark.study.WordCount
--master local[8]
/usr/local/spark-study.jar \

使用standalone client模式运行

executor-memory,指定每个executor的内存量,这里每个executor内存是2G

total-executor-cores,指定所有executor的总cpu core数量,这里所有executor的总cpu core数量是100个

./bin/spark-submit
--class org.leo.spark.study.WordCount
--master spark://192.168.0.101:7077
--executor-memory 2G
--total-executor-cores 100
/usr/local/spark-study.jar \

使用standalone cluster模式运行

supervise参数,指定了spark监控driver节点,如果driver挂掉,自动重启driver

./bin/spark-submit
--class org.leo.spark.study.WordCount
--master spark://192.168.0.101:7077
--deploy-mode cluster
--supervise
--executor-memory 2G
--total-executor-cores 100
/usr/local/spark-study.jar \

使用yarn-cluster模式运行

num-executors,指定总共使用多少个executor运行spark应用

./bin/spark-submit
--class org.leo.spark.study.WordCount
--master yarn-cluster \
--executor-memory 20G
--num-executors 50
/usr/local/spark-study.jar \

使用standalone client模式,运行一个python应用

./bin/spark-submit
--master spark://192.168.0.101:7077
/usr/local/python-spark-wordcount.py \

--class
application jar
--master
--num-executors
--executor-memory
--total-executor-cores
--supervise
--executor-cores
--driver-memory

./bin/spark-submit
--class org.leo.spark.study.WordCount
--master yarn-cluster
--num-executors 100
--executor-cores 2
--executor-memory 6G
--driver-memory 1G
/usr/local/spark-study.jar \

你可能感兴趣的:(#转#Spark核心编程进阶-spark-submit示例以及基础参数讲解)