给HDFS上传文件

1,打开虚拟机,su - ,输入密码,切换root用户

2,切换到Hadoop的sbin目录下(2.X版本)

cd /opt/hadoop/hadoop-2.6.0/sbin

3,启动Hadoop

start-all.sh

4,jps检查进程(2.X版本,五个)

5,确定Hadoop成功启动后,输入下面的命令

root@ubuntu:/opt/hadoop/hadoop-2.6.0# bin/hadoop fs -ls hdfs://localhost:9000/

这句话的意思是,查看hdfs系统的文件有哪些,现在可以看到,只有系统文件夹,没有上传文件。

hadoop的命令的格式就是这样的,bin/hadoop fs - (命令) hdfs://hdphost:9000/(hdphost主机名)

6,输入路径input path,必须是/user/root/in但是原本不存在,所以要先创建

root@ubuntu:/opt/hadoop/hadoop-2.6.0# # bin/hadoop fs -mkdir hdfs://ubuntu:9000/user/

root@ubuntu:/opt/hadoop/hadoop-2.6.0# # bin/hadoop fs -mkdir hdfs://ubuntu:9000/user/root

root@ubuntu:/opt/hadoop/hadoop-2.6.0# # bin/hadoop fs -mkdir hdfs://ubuntu:9000/user/root/in

创建了输入文件夹,也要创建输出文件夹,输出文件夹每次都不能相同,所以,创建之前,先查看一下,然后在创建

root@ubuntu:/opt/hadoop/hadoop-2.6.0# # bin/hadoop fs -mkdir hdfs://ubuntu:9000/user/root/out

7,准备工作做完了,现在开始正式上传,-put命令

root@ubuntu:/opt/hadoop/hadoop-2.6.0# bin/hadoop fs -put /mnt/hgfs/E/lcx/ hdfs://ubuntu:9000/user/root/in

这里的/mnt/hgfs/E/lcx/是本地的E盘下的文件,前提是,先把本地的E盘和虚拟机共享一下。

8,用-ls查看一下,发现已经上传成功了。

root@ubuntu:/opt/hadoop/hadoop-2.6.0# bin/hadoop fs -ls hdfs://ubuntu:9000/user/root/in

9,查看

hadoop fs -cat /user/root/in/lcx | head

你可能感兴趣的:(给HDFS上传文件)