【大数据报错】更改主机名导致hadoop启动失败

更改主机名hadoop的datanode启动失败:c7_h3: ssh: Could not resolve hostname c7_h3: Name or service not known


场景:
于CentOS7系统下安装伪分布式hadoop3,安装成功并且正常启动hadoop,相关进程如下所示:
$ jps
10038 ResourceManager
9575 DataNode
10153 NodeManager
9454 NameNode
10254 Jps
9775 SecondaryNameNode

但因一时想换一个主机名,将原来的c7_h3更改为hadoop,更改完后重新启动系统,再次尝试启动hadoop报错:
c7_h3: ssh: Could not resolve hostname c7_h3: Name or service not known

解决:
1、第一时间想到的就是将相关原系统的配置文件更改为新的主机名,修改的文件有如下:
/etc/hosts
/etc/sysconfig/network-scripts/ifcfg-ens33          (发现这个文件并没有加入主机名,故忽略)

将hadoop用户的ssh文件删除并重新生成
# su - hadoop
$ rm /home/hadoop/.ssh  -rf
$ cd ~
$ ssh-keygen -t rsa
$ ssh-keygen -t dsa
$ cd /home/hadoop/.ssh
$ cat *.pub >> authorized_keys
$ chmod 600 authorized_keys

然后验证是否免密登录
$ ssh hadoop

2、hadoop相关配置文件
删除初始化时自动生成的文件,这里路径配置为/app/hadoop/data
$ rm /app/hadoop/data -rf

修改配置文件
core-site.xml
yarn-site.xml
workers                     (之前遗漏了这个文件,经过一番折腾终于找到遗漏的这个点)

需要将原配置了的文件里有hostname的相关信息更改为新的主机名

重新初始化
$ cd /opt/hadoop/
$ ./bin/hdfs namenode -format

重新启动hadoop
$ ./sbin/start-all.sh

检查进程
$ jps
12464 Jps
11671 NameNode
12233 ResourceManager
12345 NodeManager
11981 SecondaryNameNode
11790 DataNode

 

你可能感兴趣的:(大数据报错)