centos7.4服务器搭建hadoop-2.7.3集群

配置之前,需要配置非root用户的免密登陆

说明: 集群规划: 192.168.12.148
192.168.12.149
192.168.12.150
主节点是: 192.168.12.148
从节点是: 192.168.12.149
192.168.12.150
前期配置: 所有节点都增加ip和机器名称的映射关系,且3个节点可以相互ping通。

vim /etc/hosts

加上

192.168.12.148 cloud31
192.168.12.149 cloud32
192.168.12.150 cloud33

1.1配置 Hadoop
1.1.1修改配置
1、XML文件配置,在主节点执行以下命令:

cd   /home/cloud/platform/hadoop-2.7.3/etc/hadoop
下面所有的配置文件都在/home/cloud/platform/hadoop-2.7.3/etc/hadoop下面
  1. vim core-site.xml文件
    加入


                fs.defaultFS
                hdfs://cloud31:9000
        
        
                io.file.buffer.size
                131072
        
        
                hadoop.tmp.dir
                /home/cloud/platform/hadoop-2.7.3/dfs/tmp
        

dfs/tmp不需要自己建文件夹 , 需要初始化 , 最后配置好了初始化
centos7.4服务器搭建hadoop-2.7.3集群_第1张图片
修改 hdfs://cloud31:9000 #主节点用户名cloud31
修改 /home/cloud/platform/hadoop-2.7.3/dfs/tmp #hadoop/dfs/tmp的路径,
dfs/tmp不需要自己建文件夹 , 需要初始化 , 最后配置好了初始化

2)vim hdfs-site.xml文件
加入



                dfs.namenode.name.dir
                /home/cloud/platform/hadoop-2.7.3/dfs/name
        
        
                dfs.datanode.data.dir
                /home/cloud/platform/hadoop-2.7.3/dfs/data
        
        
                dfs.replication
                3
        
        
                dfs.webhdfs.enabled
                true
        


data和name目录不需要自己新建
centos7.4服务器搭建hadoop-2.7.3集群_第2张图片
3)vim yarn-site.xml文件
加入



                yarn.nodemanager.aux-services
                mapreduce_shuffle
        

        
                yarn.nodemanager.aux-services.mapreduce.shuffle.class
                org.apache.hadoop.mapred.ShuffleHandler
        

       
               yarn.nodemanager.resource.memory-mb
               65536
       

       
               yarn.nodemanager.resource.cpu-vcores
               32
       

       
               yarn.scheduler.maximum-allocation-mb
               37768
       


centos7.4服务器搭建hadoop-2.7.3集群_第3张图片
4)vim hadoop-env.sh
修改如下内容:

export JAVA_HOME=/usr/java/jdk1.8.0_112

centos7.4服务器搭建hadoop-2.7.3集群_第4张图片
5)vim yarn-env.sh
centos7.4服务器搭建hadoop-2.7.3集群_第5张图片

  1. vim slaves
    在文件中配置从节点IP,每个节点IP单独占一行,格式要求及示例如下:
    格式要求 示例
    cloud31
    cloud32
    cloud33
    保存并关闭文件。
    centos7.4服务器搭建hadoop-2.7.3集群_第6张图片
    7)、配置文件分发:将hadoop文件夹从主节点上分发至集群中每一个从节点(在主节点执行)。**
cd  /home/cloud/platform

scp -r hadoop 从节点IP:/bdp_softwares/(将主节点配置好的hadoop分发给另外两台从节点服务器上)

示例:scp -r /home/cloud/platform/hadoop2.7.3  [email protected]:/home/cloud/platform/

上述分发命令针对每一个从节点都需要执行一遍。

  1. 主节点初始化(去主节点上执行,必须要先scp,然后在初始化)
cd  /hadoop2.7.3
./bin/hdfs namenode -format

**

2.启动验证hadoop
2.1启动hadoop

cd   /home/cloud/platform/hadoop2.7.3
./sbin/start-dfs.sh

2.2验证Hadoop

1)在主节点输入jps命令,可看到以下两个进程:
NameNode
SecondaryNameNode
2)在每一个从节点输入jps命令,可看到以下一个进程:
DataNode
3)或者去页面上输入  主节点ip:50070 页面上有东西就ok了
若以上命令都正常,说明Hadoop安装成功。

2.3停止

cd /bdp_softwares/hadoop
./sbin/stop-dfs.sh

欢迎大家留下您的宝贵意见 , 一起讨论

你可能感兴趣的:(集群搭建,hadoop2.7.3集群搭建)