hadoop集群启动问题总结

首先,我们来尝试启动hadoop集群:

start-all.sh 

然后,我遇到了下面的问题:

Warning: Permanently added 'hadoop' (RSA) to the list of known hosts.

其实解决问题的办法也很简单,只需要在每台机器上面通过下面的命令修改文件就可以解决:

vi  /etc/ssh/ssh_config

找到#StrictHostKeyChecking ask去掉注释,并把ask改为no即可

再然后,我开始解决下面这个问题:

ssh: Could not resolve hostname hadoop1: Temporary failure in name resolution

网上很多人提供了下面的解决方法:

1 打开profile文件

  vim /etc/profile

2 在文件最后加入的内容应该如下(高亮的两句一般是大家缺少的):

export JAVA_HOME=/usr/java/jdk

export HADOOP_HOME=/itcast/hadoop-2.6.4                                   

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin 

3 重新执行该文件

 source /etc/profile

我也在每台机器上面配置了这些路径,但是我的问题并没有解决。这并不是说方法不行,而是因为我在最开始配置hadoop文件时犯了一个错误。
我的hadoop集群一共有三台:hadoop,hadoop2,hadoop3。但是,我在配置/etc/hadoop下面的core-site.xml,hdfs-site.xml和slaves文件里将hadoop写成了hadoop1
当我把他们全部改回来时,就没有再报错了。
hadoop集群启动问题总结_第1张图片

你可能感兴趣的:(hadoop,hdfs,大数据)