Hadoop小兵笔记【四】hadoop2.2.0伪分布式环境搭建问题-ssh登录失败

本文记录了基于Hadoop2.2.0搭建伪分布式环境过程中遇见的疑难问题,并给出解决方案,详记于此,以为后观。

问题引子

这里写图片描述

File /data/input/wordcountTest.COPYING could only be replicated to 0 nodes instead of minReplication (=1). There are 1 datanode(s) running and no node(s) are excluded in this operation.

在hdfs新建的目录拷贝文件时,一直失败,刚开始网上搜索以为是防火墙的原因,然后试着使用完全分布式的配置方式去配置伪分布式(将datanode和namenode置于一台机器,本机即作为master执行任务调度,也作为slave执行计算任务),配置过程中发现是ssh配置出现错误。

问题现象

ECDSA host key for master has changed and you have requested strict checking.

Hadoop小兵笔记【四】hadoop2.2.0伪分布式环境搭建问题-ssh登录失败_第1张图片

问题原因

    本机在/etc/hostname中配置了Master,期间由于长时间未使用root帐号,忘记了登录密码,修改密码重新登录后,未清理/root/.ssh/known_hosts文件中关于Master/master的登录信息(linux系统不区分大小写),此时使用ssh master登录时还是之前的历史信息,造成登录失败。

问题解决

Step1:使用ssh-keygen -f /root/.ssh/known_hosts -R master将老旧登录信息清除:
这里写图片描述
Step2:然后重新设置免密码登录,设置私钥和公钥:
ssh-keygen -t rsa -P “”
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

Step3:重新使用ssh Master登录:
Hadoop小兵笔记【四】hadoop2.2.0伪分布式环境搭建问题-ssh登录失败_第2张图片

你可能感兴趣的:(Hadoop)