Hadoop集群启动常见异常

1、hadoop节点的本地工作目录访问异常(权限)


2、namenode处于安全模式,导致无法上传数据

namenode在刚刚启动的时候处于安全模式不一定是异常,但是如果启动完成之后一直不退出安全模式,就有问题,可以用以下指令尝试手动退出    hdfs namenode -safemode leave   
如果退出不成功,可以查看日志信息或者关闭重启


3、start-dfs.sh后,直接上传文件,发现上传失败抛出异常


排查异常的步骤:

--应该用jps查看一下进程是否正常:namenode  datanode  secondarynamenode
如果相关进程不存在,查看相关进程的日志文件来分析错误
--如果进程都存在,还存在问题,有可能是进程间的集群协调有问题
hdfs dfsadmin -report  来查看集群的信息
 
--实在找不到线索,删除tmp目录,然后重新格式化,启动

你可能感兴趣的:(Hadoop)