Hive 调度任务报错FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask

前两天创建调度任务的时候是重新创建表
语句: insert overwrite table
select …
在集群上跑的时候报了这样的错:
Error: Error while processing statement: FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask (state=08S01,code=2)

然后根据job的id去yarn上面查询了一下日志,发现报错如下:
FATAL [main] org.apache.hadoop.mapred.YarnChild: Error running child : java.lang.OutOfMemoryError: GC overhead limit exceeded

原来是内存溢出了,原因是数据量太大,导致在map的阶段内存不足。这时在SQL语句中加上设置参数的语句

set mapreduce.map.memory.mb=10150; 
set mapreduce.map.java.opts=-Xmx6144m;

当然这种情况还可能出现在reduce的阶段

set mapreduce.reduce.memory.mb=10150; 
set mapreduce.reduce.java.opts=-Xmx8120m;

参数的值自己可调,根据自己的需要设置就好。完结撒花

你可能感兴趣的:(解决问题)