start-dfs.sh启动时报:cannot open ‘XXXX’for reading: No such file or directory

今天在搭建hadoop集群时,在启动hdfs时报异常了,异常信息为以下内容:

node01: head: cannot open ‘/home/install/hadoop-2.6.0-cdh5.14.2/logs/hadoop-hadoop-namenode-node01.com.out’ for reading: No such file or directory

根据在网上找的答案是如下的文件没有创建:

mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/tempDatas
mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/namenodeDatas
mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/datanodeDatas 
mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/dfs/nn/edits
mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/dfs/snn/name
mkdir -p /kkb/install/hadoop-2.6.0-cdh5.14.2/hadoopDatas/dfs/nn/snn/edits

但是我查看了三个节点的文件信息,完全不是网上说的情况,经过询问万能的编程的网友,原因果然真的找到了,

那就是我的hadoop文件夹下的权限没有给我这个普通的用户,我是用普通用户进行执行start-dfs.sh命令的,

然后执行下面的命令就解决了:

chown -R userName:userName /hadoop
# userName : 指的需要使用的用户名
# /hadoop  : 指的是hadoop安装的主文件夹
# chown 命令需要在 root用户下进行执行,进行文件权限的分配

 

你可能感兴趣的:(每日随笔)