终于有解了~~hadoop Does not contain a valid host:port authority: file:///

valid host:port authority:  file://


HADOOP遇到namenode: at org.apache.hadoop.net.NetUtils.createSocketAddr错误 


最近装HDFS分布式文件系统,用于替换之前坑爹的MFS (为什么坑爹,稍后再谈)


折腾了一下午,不过还好总算是有解决办法了~ 


之所以造成 上述情况,除了因为 core-size.xml拼写格式有误,或者冒号变成了分号,这个时候就得仔细想想之前装了什么版本的HADOOP,导致在/etc/目录下存在一模一样的配置文件目录,悲催的是这个目录的配置都是空的,这就是HADOOP报错的症结所在了。


原因比较简单:HADOOP在启动时,会优先扫描/etc/hadoop  ,而非你制定的hadoop_home.,因为配置文件里找不到 fs.default.name  


解决方案: 将你自己的配置文件覆盖到/etc/hadoop目录下,搞定。



你可能感兴趣的:(Hadoop)