设置hadoop Job允许map task失败的比例

hadoop任务分为map task和reduce task,当map task执行失败后会重试,超过重试次数(mapred.map.max.attempts指定,默认为4),整个job会失败,这是我们不想看到的。


解决办法:

hadoop提供配置参数“mapred.max.map.failures.percent”解决这个问题。如果一个Job有200个map task,该参数设置为5的话,则单个job最多允许10个map task(200 x 5% =10) 失败。


reduce task有类似配置mapred.max.reduce.failures.percent.





你可能感兴趣的:(hadoop,任务)