hadoop配置时遇到的常见问题

1.当启动hadoop时候,执行sh start-dfs.sh时报错
这里写图片描述
解决方案:将sh start-dfs.sh改成 ./start-dfs.sh即可通过。
这里写图片描述

2.当用hadoop fs -ls / 的时候出现 hadoop: command not found的问题
这里写图片描述
解决方案:环境变量设置(vim /etc/peofile 将hadoop的安装目录加入到环境变量中)。

export JAVA_HOME=/usr/local/src/jdk1.8.0_121
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=$JAVA_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:/hadoop/hadoop-2.7.0/bin:$PATH

最后注意用source /etc/profile让配置文件立即生效。
配置完后用hadoop fs -ls / 检查hdfs目录下的文件(一定记住hadoop fs -ls / 的“/”)
这里写图片描述
如果说显示为空,可以自己利用 hadoop fs -mkdir /test 在hdfs根目录下创建一个文件。

你可能感兴趣的:(hadoop)