Hadoop常用命令

  1. 启动Hadoop所有进程:start-all.sh
  2. 关闭Hadoop所有进程:stop-all.sh
  3. 单进程启动:start-dfs.sh和start-yarn.sh分别启动HDFS和YARN
  4. hdfs dfs -xxx
    其中xxx为Linux常用命令:如hdfs dfs -ls 查看hdfs文件系统目录
  5. 执行mapreduce任务:hdfs jar 程序名称.jar
  6. 杀死程序:HDFS job -kill 程序编号
  7. 提交作业到hdfs: hdfs dfs -put/文件路径
  8. 执行hadoop里面的wordcount程序:

hadoop jar/opt/ hadoop-3.1.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.0.jar wordcount/ylp/inputfile/ylp/outputfile

  1. 查看hdfs文件结果 hdfs dfs -cat/文件路径

你可能感兴趣的:(Hadoop常用命令)