spark on Yarn 动态资源分配

配置文件:

spark.default.parallelism=40
#spark.executor.memory=1536m
#spark.executor.memoryOverhead=512m
#spark.driver.cores=1
#spark.driver.memory=1g
#spark.executor.instances=3
spark.serializer=org.apache.spark.serializer.KryoSerializer
spark.dynamicAllocation.enabled=true
spark.shuffle.service.enabled=true

yarn-site.xml



  
    yarn.nodemanager.aux-services
    spark_shuffle
  

  
    yarn.nodemanager.aux-services.spark_shuffle.class
    org.apache.spark.network.yarn.YarnShuffleService
  

yarn-env.sh

export YARN_HEAPSIZE=1000

使用spark-shell --master yarn 后,
通过webui ,看到初始没有executor 。
触发action后, 迅速申请的executor :


图片.png

你可能感兴趣的:(spark on Yarn 动态资源分配)