hadoop分布式集群安装

hadoop 分布式集群安装(使用普通用户hadoop)

文章目录

      • hadoop 分布式集群安装(使用普通用户hadoop)
        • 1.上传安装包
        • 2.解压安装包
        • 3.配置环境变量
        • 4.修改hadoop配置文件
          • 4.1修改hadoop-env.sh
          • 4.2修改core-site.xml (hadoop的核心配置文件)
          • 4.3修改hdfs-site.xml (hdfs的相关配置文件)
          • 4.4修改mapred-site.xml (mapreduce的配置)
          • 4.5修改yarn-site.xml (yarn的相关配置)
          • 4.6增加slaves(从节点)
        • 5.远程发送配置安装包
        • 6.远程发送配置文件
        • 7.格式化hdfs
        • 8.启动hadoop
        • 9.安装过程注意的问题
          • 9.1某一个进程启动不了
          • 9.2看日志文件
          • 9.3格式化问题

集群规划:

HDFS YARN
hadoop01 namenode+datanode nodemanager
hadoop02 datanode+secondarynamenode nodemanager
hadoop03 datanode nodemanager+resourcemanager

1.上传安装包

put c:/hadoop-2.7.6.tar.gz

2.解压安装包

tar -zxvf hadoop-2.7.6.tar.gz -C /home/hadoop/apps

3.配置环境变量

输入

sudo vi /etc/profile

在最后两行加上

export HADOOP_HOME=/home/hadoop/apps/hadoop-2.7.6
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

在这里插入图片描述
重新加载配置文件

source /etc/profile

验证

hadoop version

在这里插入图片描述

4.修改hadoop配置文件

cd /home/hadoop/apps/hadoop-2.7.6/etc/hadoop
4.1修改hadoop-env.sh

输入,并将JAVA_HOME的值进行更改

vi hadoop-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_73

在这里插入图片描述

4.2修改core-site.xml (hadoop的核心配置文件)

输入

vi core-site.xml

在configuration标签中加入

<property>
    
 <name>fs.defaultFSname>
 <value>hdfs://hadoop01:9000value>
property>

<property>
    
 <name>hadoop.tmp.dirname>
 <value>/home/hadoop/data/hadoopdatavalue>
property>

hadoop分布式集群安装_第1张图片

4.3修改hdfs-site.xml (hdfs的相关配置文件)

输入

vi hdfs-site.xml

同样的加入

<property>
 <name>dfs.namenode.name.dirname>
 <value>/home/hadoop/data/hadoopdata/namevalue>
<description>namenode 管理数据存储目录description>
property>

<property>
 <name>dfs.datanode.data.dirname>
 <value>/home/hadoop/data/hadoopdata/datavalue>
<description>datanode 的数据存储目录 真实数据description>
property>

<property>
<name>dfs.replicationname>
 <value>2value>
<description>数据存储副本个数description>
property>

<property>
 <name>dfs.secondary.http.addressname>
 <value>hadoop02:50090value>
<description>secondarynamenode 运行节点的信息,和 namenode 不同节点description>
property>

hadoop分布式集群安装_第2张图片

4.4修改mapred-site.xml (mapreduce的配置)

先复制

cp mapred-site.xml.template mapred-site.xml

输入

vi mapred-site.xml

同样的加入

<property>
 <name>mapreduce.framework.namename>
 <value>yarnvalue>
property>

hadoop分布式集群安装_第3张图片

4.5修改yarn-site.xml (yarn的相关配置)

输入

vi yarn-site.xml

同样的加入

<property>
 
 <name>yarn.resourcemanager.hostnamename>
 <value>hadoop03value>
property>
<property>
 <name>yarn.nodemanager.aux-servicesname>
 <value>mapreduce_shufflevalue>
<description>YARN 集群为 MapReduce 程序提供的 shuffle 服务description>
property>

hadoop分布式集群安装_第4张图片

4.6增加slaves(从节点)

输入

vi slaves

加入

  • hadoop01
  • hadoop02
  • hadoop03
    hadoop分布式集群安装_第5张图片

5.远程发送配置安装包

scp -r hadoop-2.7.6 hadoop02:/home/hadoop/apps/
scp -r hadoop-2.7.6 hadoop03:/home/hadoop/apps/

6.远程发送配置文件

sudo scp /etc/profile hadoop02:/etc/
sudo scp /etc/profile hadoop03:/etc/

三台机器同时执行

source /etc/profile
hadoop version

7.格式化hdfs

在namenode(hadoop01)的节点执行

hdfs namenode -format 

注意:格式化不成功不能启动

一旦格式化报错修正报错重新格式化
hadoop分布式集群安装_第6张图片

出现has been successfully formatted.则成功

注意:成功的格式化只能进行一次

8.启动hadoop

在hadoop启动文件夹里启动

cd /home/hadoop/apps/hadoop-2.7.6/sbin

在任意节点启动hdfs

start-dfs.sh

在resourcemanager(hadoop03)节点启动yarn

start-yarn.sh

验证:

jps

在这里插入图片描述

网页:

  • hdfs:

    http://hadoop01:50070
    hadoop分布式集群安装_第7张图片

    • yarn:

      http://hadoop03:8088
      hadoop分布式集群安装_第8张图片

9.安装过程注意的问题

9.1某一个进程启动不了

单独启动没有的进程

hdfs进程单独启动命令

  • hadoop-daemon.sh start 进程namenode|datanode|secondarynamenode

    hadoop-daemon.sh start namenode 
    

yarn进程单独启动命令:

  • yarn-daemon.sh start resourcemanager|nodemanager

    yarn-daemon.sh start resourcemanager
    
9.2看日志文件

​ 在路径$HADOOP_HOME/logs/下有两个日志文件

  • hadoop-hadoop-namenode-hadoop01.log

  • yarn-hadoop-nodemanager-hadoop01.log

    一般问题写在最后一百行,查看最后一百行内容

    tail -100 hadoop-hadoop-datanode-hadoop01.log
    
9.3格式化问题

如果已经成功格式化了一次,再此格式化会出现ID冲突的问题

首先停止所有

stop-all.sh

然后删除三个机器上的/home/hadoop/data

rm -rf /home/hadoop/data

最后重新格式化

hadoop namenode -format 

你可能感兴趣的:(Hadoop)