程序启动失败:java.io.IOException: Failed on local exception: java.nio.channels.ClosedByInterruptException

查看日志中的报错信息如下:

java.io.IOException: Failed on local exception: java.nio.channels.ClosedByInterruptException; Host Details :

local host is: "1.datanode3/72.118.0.15"; destination host is: "1.server1":8020;

    at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:764)

   at org.

原因:程序启动过程中读文件失败导致程序无法启动。

解决方案:

HDFS 格式化操作步骤

备份现有的文件

su - hdfs hadoop fs -get /file .

程序 所在的节点上执⾏,这两个命令执⾏之后,会在 /home/hdfs/ ⽬录下多出⼀个 file ⽬录, 这个⽬录是现在所有的规则⽂件,这个⽬录在最后⼀步需要还原回去。

格式化HDFS 1.在Ambari 上依次停⽌分析平台,Yarn,HDFS。 2.到HDFS的各个节点上,查看${hadoop_home}/hadoop/conf/hdfs-site.xml ⽂件 ,找到属性 dfs.namenode.name.dir 和 dfs.datanode.data.dir 的值,如果存在这两个路径,删掉这两个⽬ 录下的所有⽂件,⽬录需要保留。 3.到 namenode 节点上,切换到 hdfs ⽤户,⽤ hadoop namenode -format 执⾏HDFS 格式化操 作。 4.依次启动HDFS,YARN,分析平台。 备注namenode所在节点可以通过.

还原file文件, 到 所在的节点上执⾏ su - hdfs hadoop fs -put .file /

 

 

你可能感兴趣的:(常见问题的总结)