【赵强老师】搭建Hadoop环境

【赵强老师】搭建Hadoop环境_第1张图片
说明:这里我们以本地模式和伪分布模式伪列,为大家介绍如何搭建Hadoop环境。有了这个基础,大家可以自行搭建Hadoop的全分布模式。

需要使用的安装介质:

  • hadoop-2.7.3.tar.gz
  • jdk-8u181-linux-x64.tar.gz
  • rhel-server-7.4-x86_64-dvd.iso

一、安装前的准备工作

  • 安装好Redhat Linux 7.4(安装包rhel-server-7.4-x86_64-dvd.iso),并在Linux上创建tools和training两个目录

  •  关闭防火墙,执行下面的命令
systemctl stop firewalld.service
systemctl disable firewalld.service
  • 配置主机名,使用vi编辑器编辑文件/etc/hosts,输入以下内容
bigdata111    192.168.157.111
  • 配置免密码登录,在命令行中输入下面的命令
ssh-keygen -t rsa
ssh-copy-id -i .ssh/id_rsa.pub root@bigdata111

二、安装JDK

  • 通过FTP工具将jdk-8u181-linux-x64.tar.gz和hadoop-2.7.3.tar.gz上传到Linux的/root/tools目录

【赵强老师】搭建Hadoop环境_第2张图片

 

  •  在xshell中,解压jdk-8u181-linux-x64.tar.gz,执行下面的命令
tar -zxvf jdk-8u181-linux-x64.tar.gz -C /root/training/
  • 设置Java的环境变量,使用vi编辑器编辑~/.bash_profile文件。执行下面的命令
vi /root/.bash\_profile
  • 在vi编辑器中,输入以下内容
JAVA\_HOME=/root/training/jdk1.8.0\_181
export JAVA\_HOME

PATH=$JAVA\_HOME/bin:$PATH
export PATH

【赵强老师】搭建Hadoop环境_第3张图片

  •   生效环境变量,执行下面的命令
source /root/.bash_profile

 

  •  输入下图中,红框中的命令验证Java环境

【赵强老师】搭建Hadoop环境_第4张图片

三、解压Hadoop,并设置环境变量

  •  执行下面的命令,解压hadoop-2.7.3.tar.gz
tar -zxvf hadoop-2.7.3.tar.gz -C ~/training/
  • 设置Hadoop的环境变量,编辑~/.bash_profile文件,并输入以下内容
HADOOP\_HOME=/root/training/hadoop-2.7.3
export HADOOP\_HOME

PATH=$HADOOP\_HOME/bin:$HADOOP\_HOME/sbin:$PATH
export PATH

【赵强老师】搭建Hadoop环境_第5张图片

  •  生效环境变量
source ~/.bash_profile

四、搭建Hadoop的本地模式

  •  进入目录/root/training/hadoop-2.7.3/etc/hadoop
  • 使用vi编辑器编辑文件:hadoop-env.sh
  • 修改JAVA_HOME
export JAVA\_HOME=/root/training/jdk1.8.0\_181

  【赵强老师】搭建Hadoop环境_第6张图片

  •  测试Hadoop的本地模式,执行MapReduce程序。准备测试数据:vi ~/temp/data.txt

【赵强老师】搭建Hadoop环境_第7张图片

  •  输入下面的数据,并保存退出

【赵强老师】搭建Hadoop环境_第8张图片

  •  进入目录:/root/training/hadoop-2.7.3/share/hadoop/mapreduce

  •  执行WordCount任务
hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /root/temp /root/output/wc
  • 根据下图的命令,查看输出结果

【赵强老师】搭建Hadoop环境_第9张图片

五、搭建Hadoop的伪分布模式

  •  首先,搭建好Hadoop的本地模式
  • 创建目录:/root/training/hadoop-2.7.3/tmp
mkdir /root/training/hadoop-2.7.3/tmp
  • 进入目录:/root/training/hadoop-2.7.3/etc/hadoop
cd /root/training/hadoop-2.7.3/etc/hadoop
  • 修改hdfs-site.xml

    dfs.replication
    1

  【赵强老师】搭建Hadoop环境_第10张图片

  •  修改core-site.xml



    fs.defaultFS
    hdfs://bigdata111:9000





    hadoop.tmp.dir
    /root/training/hadoop-2.7.3/tmp

  【赵强老师】搭建Hadoop环境_第11张图片

  •  修改mapred-site.xml(注意:这个文件默认没有)

    mapreduce.framework.name
    yarn

  【赵强老师】搭建Hadoop环境_第12张图片

  •  修改yarn-site.xml


    yarn.resourcemanager.hostname
    bigdata111




    yarn.nodemanager.aux-services
    mapreduce\_shuffle

  【赵强老师】搭建Hadoop环境_第13张图片

  •  格式化NameNode
hdfs namenode -format

  【赵强老师】搭建Hadoop环境_第14张图片

  •  启动Hadoop
start-all.sh

  

  •  访问Web Console
http://192.168.157.111:50070
http://192.168.157.111:8088

【赵强老师】搭建Hadoop环境_第15张图片

【赵强老师】搭建Hadoop环境_第16张图片

【赵强老师】搭建Hadoop环境_第17张图片

你可能感兴趣的:(大数据,hadoop,spark,java,flink)