spark学习:org.apache.spark.SparkException: A master URL must be set in your config

Exception in thread "main" org.apache.spark.SparkException: A master URL must be set in your configuration

从提示中可以看出找不到程序运行的master,此时需要配置环境变量。
传递给Spark的master url可以有如下几种:
local 本地单线程
local[K] 本地多线程(指定K个内核)
local[*] 本地多线程(指定所有可用内核)
spark://HOST:PORT 连接到指定的 Spark standalone cluster master,需要指定端口。
mesos://HOST:PORT 连接到指定的 Mesos 集群,需要指定端口。
yarn-client客户端模式 连接到 YARN 集群。需要配置 HADOOP_CONF_DIR。
yarn-cluster集群模式 连接到 YARN 集群。需要配置 HADOOP_CONF_DIR。
点击edit configuration,在左侧点击该项目。在右侧在右侧VM options中输入“-Dspark.master=local”,指示本程序本地单线程运行,再次运行即可。

SparkConf conf = new SparkConf();
		conf.setAppName("LG_CALCULATE");
		conf.setMaster("local");

你可能感兴趣的:(大数据-spark)