Spark - 使用IDEA远程调试位于Yarn-Client模式下的Spark集群相关配置

环境介绍

我使用的是基于Ambari 的 HDP-2.6.1.0-129的Hadoop环境
1.Spark 1.6.3
2.Scala 2.10.6(可以使用2.11以后的 版本)
开发环境是IDEA 2017.2版本,使用sbt进行编译。

新建工程

使用IDEA进行工程创建在此不赘述,需要注意的是如果在创建工程时没有选择正确的scala版本,可以在项目内的build.sbt文件中修改为正确的scala版本

依赖配置

sbt需要配置的依赖较为简单,我们这一次编写的demo是一个计算Pi的近似值的spark软件,所以只需要添加本地与Spark Yarn通信的依赖

name := "SparkDemo_2_10_6"

version := "0.1"

scalaVersion := "2.10.6"

name := "SparkXScalaDemo"

libraryDependencies ++= Seq(
  "org.apache.spark" % "spark-yarn_2.10" % "1.6.3"
)

如上面所示,在libraryDependencies里添加spark-yarn_2.10依赖,如果你的scala版本是2.11则应该添加spark-yarn_2.11
注意spark-core依赖已经被集成进入yarn依赖中,无需再添加

代码设置

联系Yarn集群需要你提供你的HDP集群的配置,所以去Ambari下把服务器的配置文件下载下来
Spark - 使用IDEA远程调试位于Yarn-Client模式下的Spark集群相关配置_第1张图片
然后需要将这些配置文件放进一个Source或者Res文件夹,注意要去Project Structure中进行设置

完成了这些就能保证IDEA能够正常与Spark集群通信

然后是代码编写,我们的示例代码如下

import org.apache.spark.{SparkConf, SparkContext}

import scala.math.random
object SparkPi{
  def main(args:Array[String]){
    val conf = new SparkConf().setAppName("Spark Pi")
    System.setProperty("hadoop.home.dir","C:\\Users\\sha0w\\hadoop-bin")
    System.setProperty("HADOOP_USER_NAME", "hdfs")
    conf.setMaster("yarn-client").setAppName("SparkPi")
    conf.setJars(List("C:\\Users\\sha0w\\IdeaProjects\\SparkDemo_2_10_6\\target\\scala-2.10\\sparkxscalademo_2.10-0.1.jar"))
    conf.set("spark.yarn.preserve.staging.files","false")
    conf.set("spark.yarn.jar", "hdfs://yourID:port/apps/spark/spark-assembly-1.6.3.2.6.1.0-129-hadoop2.7.3.2.6.1.0-129.jar") //这部分需要指定对应的assembly包在HDFS内的地址,类似于Kylin使用Spark引擎的设置,这个包可以在/usr/hdp/current/spark-client/lib中找到
    conf.set("HDP_VERSION","2.6.1.0-129")
    conf.set("spark.yarn.dist.files", "yarn-site.xml")
    conf.set("yarn.resourcemanager.hostname", "packone168")
    val spark =new SparkContext(conf)
    val slices = if(args.length > 0) args(0).toInt else 2
    val n = 100000 * slices
    val count = spark.parallelize(1 to n, slices).map { i =>
      val x = random * 2 - 1
      val y = random * 2 - 1
      if(x*x + y*y <1) 1 else 0
    }.reduce(_ + _)
    println("Pi is roughly "+ 4.0 * count / n)
    spark.stop()
  }
}

这些配置我是尽可能详细地配置,有心人可以尝试减少一些看能不能使用,关键是conf.setMaster("yarn-client")设置为集群链接模式

小问题

17/08/26 11:42:49 INFO client.RMProxy: Connecting to ResourceManager at packone168/10.0.86.168:8050
17/08/26 11:43:09 INFO ipc.Client: Retrying connect to server: packone168/10.0.86.168:8050. Already tried 0 time(s); maxRetries=45
17/08/26 11:43:29 INFO ipc.Client: Retrying connect to server: packone168/10.0.86.168:8050. Already tried 1 time(s); maxRetries=45
17/08/26 11:43:49 INFO ipc.Client: Retrying connect to server: packone168/10.0.86.168:8050. Already tried 2 time(s); maxRetries=45
17/08/26 11:44:09 INFO ipc.Client: Retrying connect to server: packone168/10.0.86.168:8050. Already tried 3 time(s); maxRetries=45
17/08/26 11:44:29 INFO ipc.Client: Retrying connect to server: packone168/10.0.86.168:8050. Already tried 4 time(s); maxRetries=45

可能是因为我是用手机热点测试的,等下周一上班拿内网测试一下链接。

结语

发现网上讲这个远程调试的都是stand alone模式,我又比较怕麻烦,所以这是我自己摸索出来的连接Client的设置方法,希望大家多多指教。

你可能感兴趣的:(spark)