Hadoop 运行wordcount任务卡在job running的一种解决办法

Hadoop 运行wordcount任务卡在runnning job的一种解决办法

在使用Mac系统构建本地伪分布式hadoop系统,遇到如下问题

Hadoop 运行wordcount任务卡在job running的一种解决办法_第1张图片


网上有较多的解决办法,但是均不能解决我的问题,后来经过google查询之后,对yarn-site.xml 添加以下配置信息

<property>
    <name>yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentagename>
    <value>95.0value>
 property>

其原因是我因囊中羞涩买的128G的macbook,当剩余硬盘容量不足设定阈值时,就会判定该节点坏了,由于是伪分布式,所以任务会被无限搁置。

你可能感兴趣的:(大数据)