HDFS常用命令

HDFS常用命令,虽然现在流行很多hadoop插件,直接或间接操作HDFS,但是熟悉HDFS原生操作命令也是有好处的。HDFS命令和Linux系统操作命令有很多相似之处,对熟悉Linux系统操作的人来说学习很简单,所以大数据入门首先学习Linux系统。hadoop fs 和hdfs dfs 两种命令都可以操作执行。

#hdfs dfs -help [com]                        --查看hdfs帮助
#export HADOOP_USER_NAME=hdfs                --设置hadoop_user_name环境变量,执行命令时可以用hdfs dfs代替 hadoop fs
#hdfs dfs -chown [-R] root:root filepath                 --修改文件或文件夹组
#hdfs dfs -chmod [-R] o-r /dir                   --修改dir目录权限
#hdfs dfs -chgrp [-R] admin /dir                  --修改dir目录所在组,改为admin

#hdfs dfs -ls /    #hadoop fs -ls /                --查看根目录文件  
#hdfs dfs -put sourcepath savepath                  --hdfs上传文件,-f 覆盖已有文件;-p 保留原文件属性
#hdfs dfs -get sourcepath savepath                  --hdfs下载文件

#hdfs dfs -cat /input/filename    #hadoop fs -cat /input/filename    --查看文件filename
#hdfs dfs -du -s /input/                        --查看所有文件大小和字节大小
#hdfs dfs -cp /sourcefile /targetfile   #hadoop fs -cp /src /trget     --复制文件,hadoop fs -cp < hdfs file > < hdfs file >
#hdfs dfs -count < hdfs path >                    --统计hdfs对应路径下的目录个数,文件个数,文件总计大小 
#hdfs dfs -count /input/test/                      --统计文件夹和文件个数
#hdfs dfs -text < hdsf file>                     --将文本文件或某些格式的非文本文件通过文本格式输出
#hdfs dfs -text /input/log.txt                    --将给定的文件以文本的格式输出,zip、TextRecordInputStream、Avro
#hdfs dfs -getmerge sourcepaths savefilename           --合并文件
#hdfs dfsadmin -report                        --查看HDFS的基本统计信息
#hadoop-deamon.sh start namenode                --单独启动某个服务
#hadoop-daemon.sh start datanode                  --启动一个 DN,先启动datanode节点,再启动nodemanager。
#hadoop-daemon.sh start nodemanager              --启动一个 DN,先启动datanode节点,再启动nodemanager。

#hdfs dfs -mkdir /output/dirname   #hadoop fs –mkdir /dirname   --创建文件夹dirname
#hdfs dfs -touchz /input/filename                   --创建文件filename
#hdfs dfs -appendToFile /appendfile /input/targetfile          --向现有文件中追加内容
#hdfs dfs -rm /directory/                       --删除文件
#hdfs dfs -rm -R /directory/   #hadoop fs -rm -r /dir          --删除文件夹,-R循环删除文件夹里面的文件
#hdfs dfs -mv /user/root/.Trash/Current/test/filename /test/filename     --找回删除文件

#hdfs dfs -moveFromLocal < local src > ... < hdfs dst >        --与put相类似,命令执行后源文件local src被删除,也可以是键盘输入
#hdfs dfs -copyFromLocal < local src > ... < hdfs dst >          --与put相类似,也可以从从键盘读取输入到hdfs file中

#hdfs dfsadmin -safemode enter                    --进入安全模式
#hdfs dfsadmin -safemode leave                    -- 退出安全模式

#bin/start-all.sh            --添加一个新的DataNode节点后,配置相同配置。NameNode节点上修改$HADOOP_HOME/conf/slaves文件,加入新节点名,再建立新加节点无密码的SSH连接,运行启动命令。
#bin/start-balancer.sh       --HDFS的数据在各个DataNode中的分布可能很不均匀,尤其是在DataNode节点出现故障或新增DataNode节点时。可使用命令重新平衡DataNode上的数据块的分布。

#运行MapReduce:   hadoop jar jarpath inputfilepath outputdir
#hadoop jar /opt/opp/test.jar /input/test/test.txt /output/test/          --运行jar包
#hadoop运行wordcount.jar MapReduce,输出路径是HDFS路径
#bin/hadoop jar /usr/joe/wordcount.jar org.myorg.WordCount /usr/joe/wordcount/input /usr/joe/wordcount/output
#yarn jar /opt/opp/Test.jar /input/test/test.txt /output/test/        --yarn运行jar包
#tail -f filename.log                         --动态查看log日志

#su root                              --切换到root用户
#reboot                             --重启Linux
#mkdir filename                          --创建文件filename
#rm -rf directory                          --删除文件夹
#wc /etc/passwd                         --统计passwd行数 -l,单词数 -w,字符数 -c,文件名
FQA:
1.Permission denied: user=root, access=WRITE, inode="/input":hdfs:supergroup:drwxr-xr-x
#export HADOOP_USER_NAME=hdfs                --设置hadoop_user_name

 

备注:
作者:Shengming Zeng
博客:http://www.cnblogs.com/zengming/ https://blog.csdn.net/Z645817
严正声明:
1.由于本博客部分资源来自互联网,版权均归原作者所有。转载的目的是用于学术交流与讨论学习,将不对任何资源负法律责任。
2.若无意中侵犯到您的版权利益,请来信联系我,我会在收到信息后会尽快给予处理!
3.所有资源内容仅供学习交流之用,请勿用作商业用途,谢谢。
4.如有转发请注明出处,来源于http://www.cnblogs.com/zengming/ https://blog.csdn.net/Z645817,谢谢合作。

你可能感兴趣的:(BigData)