Hadoop3.2.0+Centos7三节点完全分布式安装配置

一、环境准备

①准备三台虚拟机,配置静态IP

②先修改主机名(每个节点统一命名规范)

vim /etc/hostname
master  #重启生效

配置DNS每个节点

vim /etc/hosts
192.168.60.121 master
192.168.60.122 salve1 192.168.60.123 salve2

永久关闭防火墙

systemctl stop firewalld
systemctl disable firewalld

配置免密登录

ssh-keygen -t rsa  #一路回车即可
cd 到 .ssh
cp id_rsa.pub authorized_keys    #生成公钥

将公钥拷贝到节点

scp authorized_keys root@slave1:/root/.ssh/
scp authorized_keys root@slave2:/root/.ssh/

登录到hadoop2主机cd到.ssh

cat id_isa.pub >> authorized_keys  #使用cat追加方式

登录到2号主机重复操作,再将公钥拷贝到三台主机上

二、配置jdk1.8

将jdk解压到自定义目录

vim /etc/profile #添加如下信息
export JAVA_HOME=jdk安装目录
export CLASSPATH=$JAVA_HOME/lib/
export PATH=$PATH:JAVA_HOME/bin
再保存执行  
#source /etc/profile
验证
#java -version

三、Hadoop环境配置

解压并移动到自定义位置

vim /etc/profile
export HADOOP_HOME=Hadoop的安装目录
export PATH=$PAHT:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/Hadoop
更新资源使生效
source /etc/profile

首先在hadoop-env.sh、mapred-env.sh、yarn-env.sh文件中指定JDK的路径

export JAVA_HOME=jdk安装目录

 配置core-site.xml


    
        hadoop.tmp.dir
        /usr/local/hadoop/tmp
    

    
        fs.defaultFS
        hdfs://master:9000
    

配置hdfs-site.xml


    
        dfs.namenode.http-address
        master:50070
    

    
        dfs.namenode.name.dir
        /usr/local/hadoop/dfs/name
     

     
         dfs.datanode.data.dir
         /usr/local/hadoop/dfs/data
     

     
        dfs.replication
        2
    

配置yarn-site.xml


    
        yarn.nodemanager.aux-services
        mapreduce_shuffle
    

    
        yarn.resourcemanager.webapp.address
        master:8088
    

配置mapred-site.xml


    
        mapreduce.framework.name
        yarn
    

修改workers文件,删除localhost,并换成

slave1
slave2

修改文件

$ vim sbin/start-dfs.sh
$ vim sbin/stop-dfs.sh
两处增加以下内容
HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
处理2
$ vim sbin/start-yarn.sh
$ vim sbin/stop-yarn.sh
两处增加以下内容
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

 

复制Hadoop文件到节点

scp -r /目的目录 hadoop2:./目的目录

 

 

Hadoop安装完成,格式化Namenode

cd到bin目录./Hdfs namenode -format

Hadoop3.2.0+Centos7三节点完全分布式安装配置_第1张图片

启动Hadoop

cd到sbin下 ./start-all.sh

Hadoop3.2.0+Centos7三节点完全分布式安装配置_第2张图片

 

 

OVER。。。

你可能感兴趣的:(Hadoop3.2.0+Centos7三节点完全分布式安装配置)