HDFS异常集合 - - 持续更新

AccessControlException
eclipse 运行一些基本的对HDFS操作代码报没有权限的异常:
 org.apache.hadoop.security.AccessControlException: Permission denied: user=jhm, access=WRITE, inode="kfs":kfs:supergroup:rwxr-xr-x


解决方法:

一、修改配置文件
到服务器上修改hadoop的配置文件:conf/hdfs-site.xml, 找到 dfs.permissions 的配置项 , 将value值改为 false

<property>
<name>dfs.permissions</name>
<value>false</value>
<description>
If "true", enable permission checking in HDFS.
If "false", permission checking is turned off,
but all other behavior is unchanged.
Switching from one parameter value to the other does not change the mode,
owner or group of files or directories.
</description>
</property>



二、修改HDFS文件夹权限

因为Eclipse使用hadoop插件提交作业时,会默认以用户名身份去将作业写入hdfs文件系统中,对应的也就是 HDFS 上的/user/xxx , 由于 xxx用户对hadoop目录并没有写入权限,所以导致异常的发生。解决方法为:
放开 hadoop 目录的权限 , 命令如下:
./hadoop dfs -chmod -R 777 /user/xxx/




SafeModeException
操作HDFS的时候或许会出现
org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create file/user/kfs/aa.html. Name node is in safe mode.


解决办法:
$ bin/hadoop dfsadmin -safemode leave关闭safe mode
用户可以通过dfsadmin -safemode value  来操作安全模式,参数value的说明如下:
enter - 进入安全模式
leave - 强制NameNode离开安全模式
get -  返回安全模式是否开启的信息
wait - 等待,一直到安全模式结束。

你可能感兴趣的:(hdfs)