HDFS常用命令

1.上传 

1).创建文件夹

hadoop fs -mkdir /testdir

2).-moveFromLocal:从本地剪切到hdfs,会删除本地文件

hadoop fs -moveFromLocal ./hello.txt /testdir

3).-copyFromLocal:从本地文件系统中拷贝文件到HDFS路径去,-put:等同于copyFromLocal,

hadoop fs -copyFromLocal ./test.txt /testdir
hadoop fs -put ./test.txt /testdir

4).-appendToFile:追加一个文件到已经存在的文件末尾

hadoop fs -appendToFile ./append.txt /testdir/hello.txt

查看追加的内容 

HDFS常用命令_第1张图片

2.下载

1)get:等同于copyToLocal,生产环境更习惯用get

hadoop fs -put ./test.txt /testdir

3.操作HDFS

1)-ls 

hadoop fs -ls /testdir
Found 2 items
-rw-r--r--   3 zjx supergroup         21 2022-07-09 09:43 /testdir/hello.txt
-rw-r--r--   3 zjx supergroup         21 2022-07-09 09:42 /testdir/test.txt

2)-cat 显示文件内容

hadoop fs -cat /testdir/hello.txt

3)-chgrp、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限

4)-mkdir

5)-cp :从HDFS的一个路径拷贝到HDFS的另一个路径

6)-mv:在HDFS目录中移动文件

7)-tail:显示一个文件的末尾1kb的数据

hadoop fs -tail /testdir/hello.txt
2022-07-09 10:00:07,423 INFO sasl.SaslDataTransferClient: SASL encryption trust check: localHostTrusted = false, remoteHostTrusted = false
hh
cc
dd
append file

8)-rm:删除文件或文件夹

9)-rm -r:递归删除目录及目录里面内容

10)-du统计文件夹的大小信息

hadoop fs -du -s -h /testdir
78  234  /testdir

hadoop fs -du -h /testdir
21  63   /testdir/hello.txt
57  171  /testdir/test.txt

说明:27表示文件大小;81表示27*3个副本;/jinguo表示查看的目录

11)-setrep:设置HDFS中文件的副本数量

hadoop fs -setrep 5 /testdir/test.txt

这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10。

你可能感兴趣的:(大数据)