伪分布式运行Hadoop实例之HDFS运行MapReduce程序

一、前期准备

  1. 准备一台客户机
  2. 安装jdk
  3. 配置环境变量
  4. 安装Hadoop
  5. 配置环境变量

二、配置集群

  1. 配置hadoop-env.sh文件
    cd /opt/module/hadoop-2.7.2/etc/hadoop
    vim hadoop-env.sh
    伪分布式运行Hadoop实例之HDFS运行MapReduce程序_第1张图片
  2. 配置core-site.xml
    这个文件也在hadoop目录下


	fs.defaultFS
    hdfs://hadoop101:8020

  1. 配置hdfs-site.xml

	
		dfs.replication
		1
	

三、启动集群

  1. 格式化namenode
    注意:这里第一次格式化就好了,后面不要格式化,否则会出问题!!!
  bin/hdfs namenode -format
  1. 启动namenode
    sbin/hadoop-daemon.sh start namenode

  2. 启动DataNode
    sbin/hadoop-daemon.sh start datanode

四、查看集群

  1. 查看集群是否启动成功

伪分布式运行Hadoop实例之HDFS运行MapReduce程序_第2张图片  namenode和datanode启动成功

2.查看产生的log日志
logs文件位于/opt/module/hadoop-2.7.2目录下
伪分布式运行Hadoop实例之HDFS运行MapReduce程序_第3张图片
3.在web端查看HDFS文件系统
  在web浏览器中输入http://192.168.23.101:50070/explorer.html#/
  如果不能访问的话,看如下帖子处理 http://www.cnblogs.com/zlslch/p/6604189.html
伪分布式运行Hadoop实例之HDFS运行MapReduce程序_第4张图片

五、操作集群

  1. 在hdfs文件系统上创建一个input文件夹
    [atguigu@hadoop101 hadoop-2.7.2]$ bin/hdfs dfs -mkdir -p /user/atguigu/input
  2. 将测试文件内容上传到文件系统上
    bin/hdfs dfs -put wcinput/wc.input /user/atguigu/input/
  3. 查看上传的文件是否正确
    bin/hdfs dfs -ls /user/atguigu/input/
    bin/hdfs dfs –cat /user/atguigu/wc.input
    伪分布式运行Hadoop实例之HDFS运行MapReduce程序_第5张图片
  4. 在Hdfs上运行mapreduce程序
    bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/atguigu/input/ /user/atguigu/output
  5. 查看输出结果
    bin/hdfs dfs -cat /user/atguigu/output/*
  6. 将测试文件内容下载到本地
    hadoop fs -get /user/atguigu/output/part-r-00000 ./wcoutput/

你可能感兴趣的:(hadoop)