hadoop fs,hadoop dfs以及hdfs dfs区别
查看hdfs帮助命令
[root@web1 bin]# hdfs dfs
Usage: hadoop fs [generic options]
[-appendToFile ... ] #将本地文件或标准输入(stdin)追加到目标文件系统
[-cat [-ignoreCrc] ...] # 用法和linux一致,将源输出到标准输出
[-checksum ...] #返回文件的checksum信息
[-chgrp [-R] GROUP PATH...]#改变文件所属的group,操作者需要是文件的拥有者或者超级用户
[-chmod [-R] PATH...]#用于授权
[-chown [-R] [OWNER][:[GROUP]] PATH...]#改变文件的拥有者,操作者需要是超级用户
[-copyFromLocal [-f] [-p] [-l] ... ]#类似于put命令,源文件必须是本地的
[-copyToLocal [-p] [-ignoreCrc] [-crc] ... ]#类似于get命令,目标必须是本地的
[-count [-q] [-h] ...]# 输出指定路径的目录数,文件数,内容大小,路径名
[-cp [-f] [-p | -p[topax]] ... ]#用于复制
[-createSnapshot []]# 用于创建快照
[-deleteSnapshot ]#用于删除快照
[-df [-h] [ ...]]# 展示剩余空间
[-du [-s] [-h] ...]# 展示文件和目录的大小
[-expunge]#从垃圾目录(trash dir)的检查点中永久删除时间久于阈值(由core-site.xml中的fs.trash.checkpoint.interval指定,这个值需要小于fs.trash.interval)的文件,并创建新的检查点。
[-find ... ...]# 查找文件并对他们执行某操作
[-get [-p] [-ignoreCrc] [-crc] ... ]#将文件复制到本地文件系统。未通过CRC检查的文件将会自带-ignorecrc参数,其他将会自带-crc参数。
[-getfacl [-R] ]#展示所有文件和目录的访问控制列表
[-getfattr [-R] {-n name | -d} [-e en] ]#展示文件或目录的extended attribute name and value
[-getmerge [-nl] ]# 将源目录的文件融合到一个目标文件中
[-help [cmd ...]]# 返回使用方法
[-ls [-d] [-h] [-R] [ ...]]#同linux类似,展示目录或文件的某些信息
[-mkdir [-p] ...]#创建目录
[-moveFromLocal ... ]#put类似,但是源文件会被删除
[-moveToLocal ]
[-mv ... ]#移动文件
[-put [-f] [-p] [-l] ... ]#将文件从本地提交到目标文件系统,也可以从stdin写入到目标文件系统
[-renameSnapshot ]# 重命名快照
[-rm [-f] [-r|-R] [-skipTrash] ...]#删除特定文件
[-rmdir [--ignore-fail-on-non-empty] ...]# 删除特定目录
[-setfacl [-R] [{-b|-k} {-m|-x } ]|[--set ]]# 设置文件或目录的访问控制列表
[-setfattr {-n name [-v value] | -x name} ]
[-setrep [-R] [-w] ...]# 修改文件的复制因子。
[-stat [format] ...]#用自定义的格式打印文件或目录的一些信息,包括文件大小、类型、所属group、文件名、block大小、复制因子、拥有者和修改时间
[-tail [-f] ]#显示文件最后的1000byte
[-test -[defsz] ]#测试路径是否是有效的文件或目录
[-text [-ignoreCrc] ...]#将输入文件以文本格式输出,允许的格式包括zip和TextRecordInputStream
[-touchz ...]# 创建一个长度为0的文件
[-truncate [-w] ...]#将所有匹配的文件截断到指定的长度
[-usage [cmd ...]]#返回某个特定命令的使用方法
创建一个目录
功能:在 hdfs 上创建目录,-p 表示会创建路径中的各级父目录。
[root@web1 bin]# hdfs dfs -mkdir -p /usr/local/input
显示目录结构
[root@web1 bin]# hdfs dfs -ls -help
-ls: Illegal option -help
Usage: hadoop fs [generic options] -ls [-d] [-h] [-R] [ ...]
[root@web1 bin]# hdfs dfs -ls /usr/local/
Found 2 items
drwxr-xr-x - root supergroup 0 2018-09-12 19:45 /usr/local/hduser
drwxr-xr-x - root supergroup 0 2018-09-12 19:42 /usr/local/input
[root@web1 bin]# hdfs dfs -lsr /usr/local/
lsr: DEPRECATED: Please use 'ls -R' instead.
drwxr-xr-x - root supergroup 0 2018-09-12 19:45 /usr/local/hduser
drwxr-xr-x - root supergroup 0 2018-09-12 19:42 /usr/local/input
[root@web1 bin]#
展示文件和目录的大小
[root@web1 bin]# hdfs dfs -du /usr/local/
0 /usr/local/hduser
0 /usr/local/input
[root@web1 bin]#
-count 统计文件(夹)数量
hdfs dfs -count /usr/local/
-put 上传文件
该命令选项表示把 linux 上的文件复制到 hdfs 中
[root@web1 bin]# hdfs dfs -put /usr/local/redis-3.2.12.tar.gz /usr/local/hduser
[root@web1 bin]# hdfs dfs -ls /usr/local/hduser
Found 1 items
-rw-r--r-- 3 root supergroup 1551468 2018-09-12 20:41 /usr/local/hduser/redis-3.2.12.tar.gz
[root@web1 bin]#
-mv 移动
该命令选项表示移动 hdfs 的文件到指定的 hdfs 目录中。后面跟两个路径,第一个
表示源文件,第二个表示目的目录
[root@web1 bin]# hdfs dfs -mv /usr/local/hduser/redis-3.2.12.tar.gz /usr/local/input
[root@web1 bin]# hdfs dfs -ls /usr/local/input
Found 1 items
-rw-r--r-- 3 root supergroup 1551468 2018-09-12 20:41 /usr/local/input/redis-3.2.12.tar.gz
[root@web1 bin]#
-cp 复制
该命令选项表示复制 hdfs 指定的文件到指定的 hdfs 目录中。后面跟两个路径,第一个是被复制的文件,第二个是目的地
[root@web1 bin]# hdfs dfs -cp /usr/local/input/redis-3.2.12.tar.gz /usr/local/hduser
[root@web1 bin]# hdfs dfs -ls /usr/local/hduser
Found 1 items
-rw-r--r-- 3 root supergroup 1551468 2018-09-12 20:48 /usr/local/hduser/redis-3.2.12.tar.gz
-get
使用方法:hadoop fs -get [-ignorecrc] [-crc] [-p] [-f]
-ignorecrc:跳过对下载文件的 CRC 检查。
-crc:为下载的文件写 CRC 校验和。
功能:将文件复制到本地文件系统。
[root@web1 bin]# hdfs dfs -get hdfs://192.168.1.191:9000/usr/local/hduser/redis-3.2.12.tar.gz /usr
参考:https://blog.csdn.net/qq_35379598/article/details/80925458
NameNode
SNN 只有一个职责,就是合并 NameNode 中的 edits 到 fsimage 中