return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask

hive执行入仓脚本报如下error:`

return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask`

如下四个设置均无果

  set hive.auto.convert.join = false;       
  set hive.ignore.mapjoin.hint = false;
  set hive.exec.parallel = true;  
  set hive.mapjoin.localtask.max.memory.usage=0.99 

等到脚本运行高峰期过去,到了中午,便不报error,也许是yarm资源被占用的太多。

你可能感兴趣的:(hive)