解决hadoop集群中一个slave节点无法连接外网引发的一系列问题

1.连接外网失败

ping其他机器ok,ping www.baidu.com失败
1)检查网关等等 使用本地网关 正确
备注:网传答案(nameserver 8.8.8.8)无效
2)

cat /var/log/messages | grep network查看网络启动日志

一直提示UUID冲突问题,该问题应该忽略,就算解决了也并ping不了
最后的最后。。。
仔细读里面的内容


image.png

我使用桥接模式,使用的网卡是ifcfg-eth0
故而转向检查ifcfg-eth0 ip hardware等信息,最后解决。
总结:注意自己到底使用的是那块网卡

2.由于解决问题1时,重新克隆了一台机器

导致两台机器中有一台启动不了
解决:删除临时文件夹,执行hadoop namenode -format, 结果格式化掉了HDFS上所有文件,嗯,sad...N次方(心疼我的论文)
反省:第一,慎用hadoop namenode -format,第二,yes or no 时好好看解释,是时候应该补一波英文了

3.java安装位置改变

原因:使用yum update导致的所有包更新,然后java包名改变,环境变量改变
查找java安装位置,移步某博主文章:http://blog.csdn.net/zhpengfei0915/article/details/50963199
然后检查集群所有环境变量配置。。。source...

反省:本来是小问题,应该先追其问题根本,然后提供大家几个解决问题的思路

你可能感兴趣的:(解决hadoop集群中一个slave节点无法连接外网引发的一系列问题)