安装hadoop 时遇到的一些问题整理

最近装hadoop, 遇到一些问题,整理了一下,方便以后查看。

1. 启动start-dfs.sh时总是跳出ssh的yes or no 问题

解决方案为在hadoop-env.sh中加入以下代码:

export HADOOP_SSH_OPTS="-o StrictHostKeyChecking=no"

2. 运行start-dfs.sh时遇到permission denied 问题,终端输出如下内容:

Starting namenodes on [localhost]
localhost: mkdir: cannot create directory `/h1': Permission denied
localhost: chown: cannot access `/h1/h1': No such file or directory

查了下,我这里运行是图方便用的tarballs,没有配置HADOOP_HOME和PATH,解决方案有2种,一种是配置环境变量,另一种是在hadoop-env.sh中配置LOG的文件夹:

export HADOOP_LOG_DIR=/home/h1/logs/


当然,最好还是配置hadoop的环境变量

你可能感兴趣的:(hadoop)