hadoop伪分布式系统:could only be replicated to 0 nodes, instead of 1

转自:http://blog.csdn.net/weijonathan/article/details/9162619


could only be replicated to 0 nodes, instead of 1

[plain]  view plain copy
  1. 2013-06-24 11:39:32,383 ERROR org.apache.hadoop.security.UserGroupInformation: PriviledgedActionException as:zqgame cause:java.io.IOException: File /data/zqhadoop/data/mapred/system/jobtracker.info could only be replicated to 0 nodes, instead of 1  
  2. 2013-06-24 11:39:32,384 INFO org.apache.hadoop.ipc.Server: IPC Server handler 1 on 9000, call addBlock(/data/zqhadoop/data/mapred/system/jobtracker.info, DFSClient_NONMAPREDUCE_-344066732_1, null) from 192.168.216.133:59866: error: java.io.IOException: File /data/zqhadoop/data/mapred/system/jobtracker.info could only be replicated to 0 nodes, instead of 1  
  3. java.io.IOException: File /data/zqhadoop/data/mapred/system/jobtracker.info could only be replicated to 0 nodes, instead of 1  
  4.         at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:1920)  
  5.         at org.apache.hadoop.hdfs.server.namenode.NameNode.addBlock(NameNode.java:783)  
  6.         at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)  
  7.         at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)  
  8.         at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)  
  9.         at java.lang.reflect.Method.invoke(Method.java:601)  
  10.         at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:587)  
  11.         at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1432)  
  12.         at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1428)  
  13.         at java.security.AccessController.doPrivileged(Native Method)  
  14.         at javax.security.auth.Subject.doAs(Subject.java:415)  
  15.         at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1190)  
  16.         at org.apache.hadoop.ipc.Server$Handler.run(Server.java:1426)  
这里hadoop去查找可用的节点,但是结果找不到。

问题处在/etc/hosts和$HADOOP_HOME/conf/mapred-site.xml和core-site.xml。

解决方法:

1、修改$HADOOP_HOME/conf/mapred-site.xml和core-site.xml,把host修改为IP地址

core-site.xml

[plain]  view plain copy
  1. zqgame@master:~/hadoop-1.2.0/bin$ more ../conf/core-site.xml   
  2.   
  3.   
  4.   
  5.   
  6.   
  7.   
  8.           
  9.          fs.default.name  
  10.          hdfs://192.168.216.133:9000  
  11.        
  12.           
  13.                 hadoop.tmp.dir  
  14.                 /data/zqhadoop/data  
  15.           
  16.   
mapred-site.xml

[plain]  view plain copy
  1. zqgame@master:~/hadoop-1.2.0/bin$ more ../conf/mapred-site.xml   
  2.   
  3.   
  4.   
  5.   
  6.   
  7.   
  8.           
  9.          mapred.job.tracker  
  10.          192.168.216.133:9001  
  11.        
  12.   

2、修改/etc/hosts配置,添加本机IP绑定

[plain]  view plain copy
  1. zqgame@master:~/hadoop-1.2.0/bin$ more /etc/hosts  
  2. 127.0.0.1       localhost  
  3. 127.0.1.1       master  
  4. 192.168.216.133 localhost.localdomain localhost  

3、关闭防火墙

你可能感兴趣的:(hadoop臭虫)