spark troubleshotting之解决YARN队列资源不足导致的application直接失败
现象:如果,你是基于yarn来提交spark,比如yarn-cluster或者是yarn-client,你可以指定某个hadoop队列上的,每个队列都是有自己的资源的,生产环境中,给spark用的yarn资源队列的情况:500G内存,200个cpucore比如说,某个sparkapplication,在spark-submit里面你自己配了,executor,80个,每个executor4G内存,