hadoop安装部署遇到问题,故障排查

                                hadoop配置遇到问题

 
1#name节点无法正常启动
 
tail -f /home/hadoop/hadoop/logs/hadoop-hadoop-secondarynamenode-master.log 
 
INFO org.apache.hadoop.ipc.RPC: Server at localhost/127.0.0.1:9000 not available yet, Zzzzz...
 
解决办法:
 
1.先清空tmp目录下的所有文件。因为每次namenode format会重新创建一个namenodeId,而tmp/dfs/data下包含了上
 
次format下的id,namenode format清空了namenode下的数据,但是没有清空datanode下的数据,导致启动时
 
namespaceIDs不一致
 
2.执行 bin/hadoop namenode -format
3.执行 bin/start-all.sh
 
 
cd /usr/tmp/
mv yum-hadoop-TG5vaS /workspace/
/home/hadoop/hadoop/bin/hadoop namenode -format
/home/hadoop/hadoop/bin/start-all.sh 
 
2#如果SSH访问出现问题的话,修改文件"authorized_keys" 权限
su - hadoop
chmod 644 ~/.ssh/authorized_keys
 
 
3#Warning: $HADOOP_HOME is deprecated.
 
这个warning对系统不会产生影响,只是一个警告信息,因为hadoop默认会从$hadoop_home/conf下读取配置文件,
 
所以会提示你配置文件的目录是否正确
 
解决办法:
cd 
vi .bash_profile 添加内容如下:
echo 'export HADOOP_HOME_WARN_SUPPRESS=1'>> .bash_profile 
source .bash_profile 

你可能感兴趣的:(hadoop,故障排查,配置部署)