hadoop

1、启动Hadoop

sbin/start-all.ssh

2、关闭Hadoop

sbin/stop-all.sh

3、查看指定目录下内容

hadoop dfs –ls /user/hadoop/student

4、打开某个已存在文件

hadoop dfs -cat /user/hadoop/student/000000_0

5、将本地文件存储至hadoop

hadoop fs -put /home/xuehengjie/xue/data/hdfs.txt /user/hadoop/hdfs

6、将本地文件夹存储至hadoop

hadoop fs -put /home/xuehengjie/xue/data /user/hadoop/data

7、将hadoop上某个文件down至本地已有目录下

hadoop fs -get /user/hadoop/hdfs/hdfs.txt /home/xuehengjie/xue/data/hadoop

8、删除hadoop上指定文件

hadoop fs -rm /user/hadoop/res.txt

7、删除hadoop上指定文件夹(包含子目录等)

hadoop fs –rmr /user/hadoop/res

hadoop fs -rm -R /user/root/output

8、在hadoop指定目录内创建新目录

hadoop fs –mkdir /user/hadoop/hive

9、在hadoop指定目录下新建一个空文件

hadoop fs -touchz /user/new.txt

10、将hadoop上某个文件重命名

hadoop fs –mv /user/test.txt /user/ok.txt

11、将hadoop指定目录下所有内容保存为一个文件,同时down至本地

hadoop dfs –getmerge /user /home/t

12、将正在运行的hadoop作业kill掉

hadoop job –kill [job-id]

hadoop

你可能感兴趣的:(后端)