1)scp实现两个远程主机之间的文件复制
//推 push
scp -r hello.txt root@hadoop103:/user/qinjl/hello.txt
//拉 pull
scp -r root@hadoop103:/user/qinjl/hello.txt hello.txt
//是通过本地主机中转实现两个远程主机的文件复制;如果在两个远程主机之间ssh没有配置的情况下可以使用该方式。
scp -r root@hadoop103:/user/qinjl/hello.txt root@hadoop104:/user/qinjl
2)采用distcp命令实现两个Hadoop集群之间的递归数据复制
[qinjl@hadoop102 hadoop-3.1.3]$ bin/hadoop distcp hdfs://hadoop102:9820/user/qinjl/hello.txt hdfs://hadoop105:9820/user/qinjl/hello.txt
(1)需要启动YARN进程
[qinjl@hadoop102 hadoop-3.1.3]$ start-yarn.sh
(2)归档文件
[qinjl@hadoop102 hadoop-3.1.3]$ hadoop archive -archiveName input.har -p /user/qinjl/input /user/qinjl/output
(3)查看归档
[qinjl@hadoop102 hadoop-3.1.3]$ hadoop fs -ls /user/qinjl/output/input.har
[qinjl@hadoop102 hadoop-3.1.3]$ hadoop fs -ls har:///user/qinjl/output/input.har
(4)解归档文件
[qinjl@hadoop102 hadoop-3.1.3]$ hadoop fs -cp har:/// user/qinjl/output/input.har/* /user/qinjl
开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。
修改core-site.xml,配置垃圾回收时间为1分钟。
<property>
<name>fs.trash.intervalname>
<value>1value>
property>
3)查看回收站
回收站目录在hdfs集群中的路径:/user/qinjl/.Trash/…
4)通过程序删除的文件不会经过回收站,需要调用moveToTrash()才进入回收站
Trash trash = New Trash(conf);
trash.moveToTrash(path);
5)通过网页上直接删除的文件也不会走回收站。
6)只有在命令行利用hadoop fs -rm命令删除的文件才会走回收站。
[qinjl@hadoop102 hadoop-3.1.3]$ hadoop fs -rm -r /user/qinjl/input
2020-07-14 16:13:42,643 INFO fs.TrashPolicyDefault: Moved: 'hdfs://hadoop102:9820/user/qinjl/input' to trash at: hdfs://hadoop102:9820/user/qinjl/.Trash/Current/user/qinjl/input
7)恢复回收站数据
[qinjl@hadoop102 hadoop-3.1.3]$ hadoop fs -mv
/user/qinjl/.Trash/Current/user/qinjl/input /user/qinjl/input
HDFS NameNode高可用性的初始实现为单个活动NameNode和单个备用NameNode,将edits复制到三个JournalNode。该体系结构能够容忍系统中一个NN或一个JN的故障。
但是,某些部署需要更高程度的容错能力。Hadoop3.x允许用户运行多个备用NameNode。例如,通过配置三个NameNode和五个JournalNode,群集能够容忍两个节点而不是一个节点的故障。
HDFS中的默认3副本方案在存储空间和其他资源(例如,网络带宽)中具有200%的开销。但是,对于IO活动相对较低暖和冷数据集,在正常操作期间很少访问其他块副本,但仍会消耗与第一个副本相同的资源量。
纠删码(Erasure Coding)能够在不到50% 的数据冗余情况下提供和3副本相同的容错能力,因此,使用纠删码作为副本机制的改进是自然而然的。
hdfs ec -listPolicies