hadoop2.2.0 启动遇到的常见错误

1、Hadoop的datanode无法启动  

发现日志提示

2014-06-11 07:14:32,896 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Invalid dfs.datanode.data.dir /usr/zkt/hadoop2.2.0/hdf/data : 

org.apache.hadoop.util.Shell$ExitCodeException: chmod: changing permissions of `/usr/zkt/hadoop2.2.0/hdf/data': Operation not permitted

是因为/usr/zkt/hadoop2.2.0/hdf/data 文件夹权限的问题,修改方法:

   1、删除data文件夹,在hadoop用户下重新创建data文件夹

   2、在hadoop用户下给该文件夹赋权限

2、 Can't browse the DFS since there are no live nodes available to redirect to.

 一般的原因是防火墙未关闭

查看iptables状态:

service iptables status

iptables开机自动启动: 

开启: chkconfig iptables on
关闭: chkconfig iptables off

iptables关闭服务:

开启: service iptables start
关闭: service iptables stop



你可能感兴趣的:(hadoop2.2.0 启动遇到的常见错误)