hadoop搭建时容易踩得坑(错误合集一)

错误合集1

    • 1、配置静态ip时错误
    • 2、启动HDFS服务,DataNode没启动的错误
    • 3、防火墙没关闭、或者没有启动YARN
    • 4、主机名称配置错误
    • 5、IP地址配置错误
    • 6、ssh没有配置好
    • 7、root用户和atguigu两个用户启动集群不统一
    • 8、配置文件修改不细心
    • 9、未编译源码
    • 10、不识别主机名称
    • 11、DataNode和NameNode进程同时只能工作一个。
    • 12、执行命令不生效,粘贴word中命令时,遇到-和长–没区分开。导致命令失效
    • 13、jps发现进程已经没有,但是重新启动集群,提示进程已经开启。
    • 14、jps不生效。
    • 15 、8088端口连接不上

1、配置静态ip时错误

错误:配置好了静态ip,配置文件没有任何问题,重启虚拟机,ip还是会还原或者变
原因分析:NetworkManager皆在能够让Linux用户更轻松的处理现代网络需求,尤其是无线网络,能够自动发现网卡并配置IP地址
解决方法:就是关闭NetworkManager,重新修改配置文件,再重启网络服务

systemctl stop NetworkManager
systemctl disable NetworkManager
#修改配置文件ip即可
vim /etc/sysconfig/network-script/ifcfg-enss33
#重启网络服务
service network restart

到此问题1成功解决

2、启动HDFS服务,DataNode没启动的错误

错误:启动HDFS服务,DataNode没有启动
分析原因:多次格式化NameNode导致
解决方法:简单粗暴

#找到HDFS数据存储目录删除
rm -rf /opt/module/hadoop文件/data/*
#接着重新格式化
hadoop namenode -format

注意:格式化完成下次开机就不要再格式化NameNode

3、防火墙没关闭、或者没有启动YARN

INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032

4、主机名称配置错误

5、IP地址配置错误

6、ssh没有配置好

7、root用户和atguigu两个用户启动集群不统一

8、配置文件修改不细心

9、未编译源码

Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 17/05/22 15:38:58 INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032

10、不识别主机名称

java.net.UnknownHostException: hadoop102: hadoop102 at java.net.InetAddress.getLocalHost(InetAddress.java:1475) at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:146) at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1290) at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1287) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:415)
解决办法:
在/etc/hosts文件中添加192.168.1.102 hadoop102
主机名称不要起hadoop hadoop000等特殊名称

11、DataNode和NameNode进程同时只能工作一个。

hadoop搭建时容易踩得坑(错误合集一)_第1张图片

12、执行命令不生效,粘贴word中命令时,遇到-和长–没区分开。导致命令失效

解决办法:尽量不要粘贴word中代码

13、jps发现进程已经没有,但是重新启动集群,提示进程已经开启。

原因是在linux的根目录下/tmp目录中存在启动的进程临时文件,将集群相关进程删除掉,再重新启动集群。

14、jps不生效。

原因:全局变量hadoop java没有生效。解决办法:需要source /etc/profile文件

15 、8088端口连接不上

[hduser@hadoop102 桌面]$ cat /etc/hosts 注释掉如下代码 #127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 #::1 hadoop102

最后:欢迎大家多多补充

贫僧会写代码博客
hadoop搭建时容易踩得坑(错误合集一)_第2张图片

你可能感兴趣的:(hadoop集群搭建,大数据,hadoop,hdfs,大数据)