Hadoop集群崩溃时的处理方法

不少同学在部署集群时候不小心删除了一些文件,比如hadoop目录下的data等目录,导致集群崩溃无法启动或者进入不了web端口。

很多小伙伴第一时间想到的就是重新格式化,但忙活了半天发现还是于事无补,无法正常启动集群,还爆出来一堆问题。

下面我来教大家遇到Hadoop集群崩溃的如何处理。
其实很简单,教大家正确的处理这种故障。首先不管它机器怎么坏,只要你别把什么 etc、bin目录这些路径给搞坏就行。

我们先这样记住第一句话先杀死进程,这个服务你得先杀死。先把进程全停掉。

第二步一定要记住删除每一个集群上的 data 和 logs,一定要全删除。

rm -rf data/ logs/

Hadoop集群崩溃时的处理方法_第1张图片

三台机器的data 和 logs全删除掉。删除掉之后,第三步才是重新格式化。

hdfs namenode -format

在这里插入图片描述

初始化完毕之后,然后启动集群进去。
这样集群就启动了Hadoop集群崩溃时的处理方法_第2张图片

有句话说得好,叫打扫干净屋子再请客。先停进程,删除历史数据之后再启动集群。这样就能很好的解决Hadoop集群崩溃的问题啦,希望这篇文章对各位小伙伴有所帮助!

你可能感兴趣的:(大数据,Linux,Hadoop,hadoop,大数据,数据库)