NameNode故障处理之数据恢复

NameNode故障处理之数据恢复

  • 1.原理简介
    • 方法一:将SecondaryNameNode中数据拷贝到NameNode存储数据的目录
    • 方法二:使用-importCheckpoint选项启动NameNode守护进程,从而将SecondaryNameNode中数据拷贝到NameNode目录中。

1.原理简介

如果你看了上篇,我相信应该已经不需要我来多做介绍了,不过还是简单说下吧!!!因为SecondaryNameNode负责合并NameNode中的Fsimage和Edit文件,所以它也保存了上次合并的NameNode中Fsimage和Edit文件!然后所以我们可以把它拷贝到NameNode上,然后又所以最后一次没有合并的数据还是会丢失。

方法一:将SecondaryNameNode中数据拷贝到NameNode存储数据的目录

1 kill -9 NameNode进程
2 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)

[lsl@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*

3 拷贝启动SecondaryNameNode的DataNode中数据到原NameNode存储数据目录

[lsl@hadoop102 dfs]$ scp -r lsl@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/* ./name/

4.重新启动NameNode

[lsl@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode

方法二:使用-importCheckpoint选项启动NameNode守护进程,从而将SecondaryNameNode中数据拷贝到NameNode目录中。

1.修改hdfs-site.xml

<property>
  <name>dfs.namenode.checkpoint.periodname>
  <value>120value>
property>

<property>
  <name>dfs.namenode.name.dirname>
  <value>/opt/module/hadoop-2.7.2/data/tmp/dfs/namevalue>
property>

2.kill -9 NameNode进程
3.删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)

[lsl@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*

4 如果SecondaryNameNode不和NameNode在一个主机节点上,需要将SecondaryNameNode存储数据的目录拷贝到NameNode存储数据的平级目录,并删除in_use.lock文件

[lsl@hadoop102 dfs]$ scp -r lsl@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary ./

[lsl@hadoop102 namesecondary]$ rm -rf in_use.lock

[lsl@hadoop102 dfs]$ pwd
/opt/module/hadoop-2.7.2/data/tmp/dfs

[lsl@hadoop102 dfs]$ ls
data  name  namesecondary

**5.**导入检查点数据(等待一会ctrl+c结束掉)

[lsl@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -importCheckpoint

6 启动NameNode

[lsl@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode

版权声明:本博客为记录本人自学感悟,转载需注明出处!
https://me.csdn.net/qq_39657909

你可能感兴趣的:(Hadoop)