hadoop命令

一、hadoop基本命令

两种指令均可:

hadoop fs 或者 hdfs dfs 

1.查看hdfs文件系统中已经存在的文件:

hadoop fs -ls /

2.在hdfs问价系统中创建文件

hadoop fs -touchz /test.txt   (/test.txt 指的是像根目录下创建test.txt文件)

3.向hdfs文件系统中文件中追加内容

hadoop fs -appendToFile edit1.xml /edits.txt #将本地磁盘当前目录的edit1.xml内容追加到HDFS根目录 的edits.txt文件

4.查看HDFS文件内容

hadoop fs -cat /test.txt  查看根目录下的test.txt 的内容

5.从本地路径上传hdfs

#用法:hdfs dfs -put /本地路径 /hdfs路径

hdfs dfs -put hadoop-2.7.3.tar.gz /

hdfs dfs -copyFromLocal hadoop-2.7.3.tar.gz /    与put作用一样

hdfs dfs -moveFromLocal hadoop-2.7.3.tar.gz /  与put作用一样,只不过,源文件被拷贝成功后,会被删除

6.在hdfs文件系统上下载文件

hdfs dfs -get /hdfs路径 /本地路径

hdfs dfs -copyToLocal /hdfs路径 /本地路径  #根get作用一样

7.在hdfs文件系统中创建目录

hdfs dfs -mkdir /shell

8.在hdfs文件系统中删除文件

hdfs dfs -rm /edits.txt

hdfs dfs -rm -r /shell

9.在hdfs文件系统中修改文件名称(也可以用来移动文件到目录)

hdfs dfs -mv /xcall.sh /call.sh

hdfs dfs -mv /call.sh /shell

10.在hdfs中拷贝文件到目录

hdfs dfs -cp /xrsync.sh /shell

11.递归删除目录

hdfs dfs -rmr /shell

12.列出本地文件的内容(默认是hdfs文件系统)

hdfs dfs -ls file:///home/hadoop/

13.查找文件

# linux find命令

find . -name 'edit*'

# HDFS find命令

hadoop fs -find / -name part-r-00000 # 在HDFS根目录中,查找part-r-00000文件

二、与getconf结合使用

获取NameNode的节点名称(可能有多个)

hdfs getconf -namenodes 

获取hdfs最小块信息

hdfs getconf -confKey dfs.namenode.fs-limits.min-block-size

查找hdfs的NameNode的RPC地址

hdfs getconf -nnRpcAddresses

三、 hdfs与dfsadmin结合使用

借助帮助信息

hdfs dfsadmin -help safemode

查看hdfs dfsadmin的帮助信息

hdfs dfsadmin

查看当前的模式

hdfs dfsadmin -safemode get

进入安全模式

hdfs dfsadmin -safemode enter

4. hdfs与fsck结合使用

fsck指令显示HDFS块信息

hdfs fsck /02-041-0029.mp4 -files -blocks -locations # 查看文件02-041-0029.mp4的块信息

5. 其他命令

检查压缩库本地安装情况

hadoop checknative

格式化名称节点(慎用,一般只在初次搭建集群,使用一次;格式化成功后,不要再使用)

hadoop namenode -format

执行自定义jar包

hadoop jar xxxx.jar com.xxx.hadoop.WordCount  /world.txt /out

你可能感兴趣的:(hadoop命令)