hadoop节点nodemanager启动失败原因小结~

slaves节点报错,报的是启动nodemanager 所需内存不足

报错内容:

ERROR org.apache.hadoop.yarn.server.nodemanager.NodeStatusUpdaterImpl: Unexpected error starting NodeStatusUpdater
org.apache.hadoop.yarn.exceptions.YarnRuntimeException: Recieved SHUTDOWN signal from Resourcemanager ,Registration of NodeManager failed, Message from ResourceManager: NodeManager from  localhost doesn't satisfy minimum allocations, Sending SHUTDOWN signal to the NodeManager.

于是在网上搜索的相关问题,大部分都是修改 yarn-site.xml 中的yarn.scheduler.minimum-allocation-mb 内存大于1024,

 
       
        yarn.nodemanager.resource.memory-mb
        1024
   

其中也是我借鉴过来的,我不知道管不管用,我也修改成1024了,反正在我这没起到作用。

后来我在csdn中发帖,一哥们http://my.csdn.net/ArayChou就是他给我说的  修改 yarn-env.sh 中 JAVA_HEAP_MAX=-Xmx3072m 改为3G

nodemanager就启动起来了

还有 如果一切正常 dataNode启动不起来的话 可以删除你 hadoop/dfs 中的 data下的所有文件夹和文件  data文件清空后还会再生成

然后再格式namonode 。  

#hadoop namenode -format

你可能感兴趣的:(hadoop,内存,nodemanager,slaves启动失败,启动失败,hadoop,liunx)