archive
将hadoop存档
[hadoop@linux ~]$ hadoop archive
archive -archiveName NAME -p <parent path> [-r <replication factor>]<src>* <dest>
Invalid usage.
checknative [-a] [-h]
-a 检查所有有效存储 ; -h 打印帮助
[hadoop@linux ~]$ hadoop checknative
16/11/14 03:30:56 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Native library checking:
hadoop: false
zlib: false
snappy: false
lz4: false
bzip2: false
openssl: false
16/11/14 03:30:57 INFO util.ExitUtil: Exiting with status 1
classpath
hadoop classpath [–glob |–jar |-h |–help]
–glob 扩展通配符
–jar path 表明 jar包所在路径
-h,–help 帮助
credential
hadoop credential(证书) [options]
hadoop 凭据 <子命令> [选项]
Example: hadoop credential(证书) list -provider jceks://file/tmp/test.jceks
distcp递归复制
hadoop distcp <源文件> <目的文件>
fs
hadoop fs 通用的命令选项
运行一个常规的文件系统客户端。
fsck
运行HDFS文件系统检查工具。
用法:hadoop fsck [GENERIC_OPTIONS] [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]]
命令选项 描述
检查的起始目录。
-move 移动受损文件到/lost+found
-delete 删除受损文件。
-openforwrite 打印出写打开的文件。
-files 打印出正被检查的文件。
-blocks 打印出块信息报告。
-locations 打印出每个块的位置信息。
-racks 打印出data-node的网络拓扑结构。
jar
hadoop jar [mainClass]
运行jar文件。用户可以把他们的Map Reduce代码捆绑到jar文件中,使用这个命令执行。
key
密钥提供者 管理密钥渠道
trace
查看和修改hadoop跟踪设置
version
hadoop version 打印版本信息
CLASSNAME
hadoop CLASSNAME
运行名字叫CLASSNAME的类
daemonlog
[hadoop@linux ~]$ hadoop daemonlog
Usage: General options are:
[-getlevel <host:httpPort> <name>]
[-setlevel <host:httpPort> <name> <level>]
-getlevel 打印运行在的守护进程的日志级别。这个命令内部会连接 http:///logLevel?log=
-setlevel 设置运行在的守护进程的日志级别。这个命令内部会连接http:///logLevel?log=
datanode
hadoop datenote [-rollback]
运行一个hdfs的datenote版本
-rollback 回滚到上个版本
dfsadmin
运行一个HDFS的dfsadmin客户端。
用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get | wait] [-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status | details | force] [-metasave filename] [-setQuota …] [-clrQuota …] [-help [cmd]]
命令选项 描述
-safemode enter | leave | get | wait 安全模式维护命令。安全模式是Namenode的一个状态,这种状态下,Namenode
1. 不接受对名字空间的更改(只读)
2. 不复制或删除块Namenode 会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手动进入,但是这样的话也必须手动关闭安全模式。
-refreshNodes
重新读取hosts和exclude文件,更新允许连到Namenode的或那些需要退出或入编的Datanode的集合。
-finalizeUpgrade
终结HDFS的升级操作。Datanode删除前一个版本的工作目录,之后Namenode也这样做。这个操作完结整个升级过程。
-upgradeProgress status | details | force
请求当前系统的升级状态,状态的细节,或者强制升级操作进行。
-metasave filename
保存Namenode的主要数据结构到hadoop.log.dir属性指定的目录下的文件。对于下面的每一项,中都会一行内容与之对应
1. Namenode收到的Datanode的心跳信号
2. 等待被复制的块
3. 正在被复制的块
4. 等待被删除的块
-setQuota …
为每个目录 设定配额。目录配额是一个长整型整数,强制限定了目录树下的名字个数。
命令会在这个目录上工作良好,以下情况会报错:
1. N不是一个正整数,或者
2. 用户不是管理员,或者
3. 这个目录不存在或是文件,或者
4. 目录会马上超出新设定的配额。
-clrQuota …
为每一个目录清除配额设定。
命令会在这个目录上工作良好,以下情况会报错:
1. 这个目录不存在或是文件,或者
2. 用户不是管理员。
如果目录原来没有配额不会报错。
-help [cmd] 显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮助信息。
Usage: hdfs dfsadmin
Note: Administrative commands can only be run as the HDFS superuser.
[-report [-live] [-dead] [-decommissioning]] //报告文件系统的基本信息和统计信息。
[-safemode ] //安全模式设置
[-saveNamespace]
[-rollEdits]
[-restoreFailedStorage true|false|check]
[-refreshNodes]
[-setQuota ...]
[-clrQuota ...]
[-setSpaceQuota ...]
[-clrSpaceQuota ...]
[-finalizeUpgrade]
[-rollingUpgrade []]
[-refreshServiceAcl]
[-refreshUserToGroupsMappings]
[-refreshSuperUserGroupsConfiguration]
[-refreshCallQueue]
[-refresh [arg1..argn]
[-reconfig ...> ]
[-printTopology]
[-refreshNamenodes datanode_host:ipc_port]
[-deleteBlockPool datanode_host:ipc_port blockpoolId [force]]
[-setBalancerBandwidth in bytes per second>]
[-fetchImage ]
[-allowSnapshot ]
[-disallowSnapshot ]
[-shutdownDatanode [upgrade]]
[-getDatanodeInfo ]
[-metasave filename]
[-setStoragePolicy path policyName]
[-getStoragePolicy path]
[-help [cmd]]
jobtracker
运行MapReduce job Tracker节点。
用法:hadoop jobtracker
namenode
运行namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。
用法:hadoop namenode [-format] | [-upgrade] | [-rollback] | [-finalize] | [-importCheckpoint]
命令选项 描述
-format 格式化namenode。它启动namenode,格式化namenode,之后关闭namenode。
-upgrade 分发新版本的hadoop后,namenode应以upgrade选项启动。
-rollback 将namenode回滚到前一版本。这个选项要在停止集群,分发老的hadoop版本后使用。
-finalize finalize会删除文件系统的前一状态。最近的升级会被持久化,rollback选项将再不可用,升级终结操作之后,它会停掉namenode。
-importCheckpoint 从检查点目录装载镜像并保存到当前检查点目录,检查点目录由fs.checkpoint.dir指定。
secondarynamenode
运行HDFS的secondary namenode。参考Secondary Namenode了解更多。
用法:hadoop secondarynamenode [-checkpoint [force]] | [-geteditsize]
命令选项 描述
-checkpoint [force] 如果EditLog的大小 >= fs.checkpoint.size,启动Secondary namenode的检查点过程。 如果使用了-force,将不考虑EditLog的大小。
-geteditsize 打印EditLog大小。
tasktracker
运行MapReduce的task Tracker节点。
用法:hadoop tasktracker
[-appendToFile ... ]
[-cat [-ignoreCrc] ...]
[-checksum ...]
[-chgrp [-R] GROUP PATH...]
[-chmod [-R] ... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]
[-copyFromLocal [-f] [-p] [-l] ... ]
[-copyToLocal [-p] [-ignoreCrc] [-crc] ... ]
[-count [-q] [-h] ...]
[-cp [-f] [-p | -p[topax]] ... ]
[-createSnapshot []]
[-deleteSnapshot ]
[-df [-h] [ ...]]
[-du [-s] [-h] ...]
[-expunge]
[-get [-p] [-ignoreCrc] [-crc] ... ]
[-getfacl [-R] ]
[-getfattr [-R] {-n name | -d} [-e en] ]
[-getmerge [-nl] ]
[-help [cmd ...]]
[-ls [-d] [-h] [-R] [ ...]]
[-mkdir [-p] ...]
[-moveFromLocal ... ]
[-moveToLocal ]
[-mv ... ]
[-put [-f] [-p] [-l] ... ]
[-renameSnapshot ]
[-rm [-f] [-r|-R] [-skipTrash] ...]
[-rmdir [--ignore-fail-on-non-empty] ...]
[-setfacl [-R] [{-b|-k} {-m|-x } ]|[--set ]]
[-setfattr {-n name [-v value] | -x name} ]
[-setrep [-R] [-w] ...]
[-stat [format] ...]
[-tail [-f] ]
[-test -[defsz] ]
[-text [-ignoreCrc] ...]
[-touchz ...]
[-usage [cmd ...]]
ls
hadoop fs -ls /——查看目录文件
cat
hadoop fs -cat /xxx.txt ——查看文件内容
cp
[-cp [-f] [-p | -p[topax]] … ]
hadoop fs -cp 源文件 目的目录 ——复制文件(HDFS内部)
copyToLocal==get
hadoop fs -copyToLocal /a/b /cc.txt 本地目录 ——复制文件到本地目录
hadoop fs -get /a/b/cc.txt 本地目录——下载
moveToLocal
hadoop fs -moveToLocal /a/b /cc.txt 本地目录 ——剪切文件到本地目录
copyFromLocal ==put
hadoop fs -copyFromLocal 当地文件 目的地址——复制本地文件到目的主机
hadoop fs -put 当地文件 目的地址 ——上传
moveFromLocal
hadoop fs -moveFromLocal 当地文件 目的地址——剪切本地文件到目的主机
有local的都是代表远程与本地之间的交互
[hadoop@linux ~]$ hadoop fs -copyFromLocal test.txt /a1/b/c
16/11/15 11:38:57 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
[hadoop@linux ~]$ hadoop fs -ls /a1/b/c
16/11/15 11:39:42 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Found 1 items
-rw-r--r-- 2 hadoop supergroup 16 2016-11-15 11:39 /a1/b/c/test.txt
appendToFile
hadoop fs -appendToFile aa.txt a/b/bb.txt——追加文件aa.txt内容到bb.txt
chgrp
hadoop fs -chgrp 文件名 ——改变组
chown
hadoop fs -chown 文件名 ——改变拥有者
hadoop fs -chown 新拥有者:组名 文件名——同时改变用户名和组名
chmod
hadoop fs -chmod 724 /a/b/aa.txt——改变权限
中间的724 分别代表:所有者权限7——rwx 组成员2——-w- 其他用户权限 4 ——r–
count
hadoop fs -count ——统计文件夹下文件数量
df
Hadoop fs -df [-h] /——查看磁盘空间使用信息
du
Hadoop fs -du [-s -h] /a/b/a.txt——查看文件占用磁盘信息
mv
hadoop fs -mv 源文件 目的目录——是HDFS中的一个文件移动到HDFS的一个目录
rm
hadoop fs -rm -f ——删除
hadoop fs -rm -r ——递归删除,先删除最底层的文件,再一级一级的删除所有目录,
rmdir
hadoop fs -rmdir ——只能删除空目录,当需要删除有文件的目录是只能求助“rm -r”
text
hadoop fs -text 文件——查看文件信息