Hadoop的一些常见错误解决方案

1、启动hadoop时没有NameNode的可能原因:

(1) NameNode没有格式化
(2) 环境变量配置错误
(3) Ip和hostname绑定失败

2、搭建hadoop集群使用ssh不成功

①查看防火墙
②检查用户权限
③可能是缺少插件
使用命令: yum install -y openssh-clients*

3、启动时报错 java.net.UnknownHostException

原因分析:通过localhost.localdomain根本无法映射到一个IP地址。
解决方法:查看/etc/hosts,将主机名hostname添加到hosts文件中。

4、hadoop在第一次启动时报错

①检查是不是对namenode进行了格式化
②namenode格式化前是否将data 和logs文件删除

5、运行shell脚本不成功

查看脚本的文件格式修改为unix格式
修改脚本格式:进入脚本文件按“shift :”输入set fileformat = unix回车

6、window下运行我wordcount报下面错误

java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.

解决方案:拷贝 hadoop.dll 文件到 windows 目录 C:\Windows\System32。

7、日志问题

报错log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.

解决方案:需要在项目的src下面新建file名为log4j.properties的文件;

8、远程连接问题

当远程连接不到linux时 查看电脑中的网卡的子网掩码与主机的子网掩码是否一致,若不一致则格式化网卡再将网段改回来。

9、start-dfs.sh不能生效故障

使用时应注意ssh应可以免密登录本机才可以使用。

10、上传文件,报错:NameNode is safe mode.

①等一会在上传
②使用hdfs dfsadmin -safemode leave命令退出安全模式就可以继续使用了

你可能感兴趣的:(大数据,Hadoop)