运行hadoop2.x自带的wordcount

运行hadoop2.x自带的wordcount

(1)首先在master虚拟机本地某一个目录下创建一个文件夹file,用来存储将要上传到HDFS的文件
我是在/opt/hadoop路径下创建的文件夹file
cd /opt/hadoop
mkdir file

(2)接着进入file文件夹,然后创建一个文本文件file1.txt,并输入内容(路径自己随便写)
cd file
vi file1.txt #hello world

(3)用hadoop dfs命令在HDFS上创建用来接收本地文件的文件夹input
hadoop dfs -mkdir /input
hadoop dfs -ls /
hadoop dfs -ls /input

(4)将刚才在本地创建的一个文件上传到HDFS的input中
vi file1.txt #hello world
hadoop dfs -put /opt/hadoop/file/file1.txt /input/01
hadoop dfs -ls /input

(5)现在已经将文件上传到HDFS上了,接下来就要用hadoop自带的Wordcount程序对其进行统计
首先进入到Wordcount程序所在目录(找自己的hadoop的安装目录)
cd /opt/hadoop/share/hadoop//mapreduce/
ll //查看命令,查看当前路径下是否有hadoop-mapreduce-examples-2.7.2.jar包
hadoop jar hadoop-mapreduce-examples-2.7.2.jar wordcount /input/file1.txt /output/01

执行命令运行Wordcount程序,并将结果输出到/output/01目录下(输出目录自动生成,不可提前创建)
hadoop dfs -ls /output/01 (01作为输入结果的文件,不能提前存在,必须是hdfs自己运行时生成的)

(6)接下来看输出结果,一共生成2个文件,我们的统计结果在part-r-00000文件中。

你可能感兴趣的:(hdfs)