Hadoop完全分布式集群搭建


环境准备

  • 服务器集群
    我用的CentOS-6.6版本的4个虚拟机,主机名为node01、node02、node03、node04,另外我会使用hadoop用户搭建集群(生产环境中root用户不是可以任意使用的)
    关于虚拟机的安装可以参考以下两篇文章:
    在Windows中安装一台Linux虚拟机
    通过已有的虚拟机克隆四台虚拟机

  • 给集群中的每个虚拟机都创建一个hadoop用户,并赋予sudoer权限
    参考:
    Linux用户管理常用命令
    Linux给普通用户赋予sudoer权限

  • 每台虚拟机都需安装JDK
    参考在Linux中安装JDK

  • 集群中的所有虚拟机可以两两之间免秘钥登录以及可以登录自身
    参考配置各台虚拟机之间免秘钥登录

  • 集群中的所有虚拟机的时间同步
    参考Linux集群系统时间同步

  • hadoop安装包
    下载地址:https://mirrors.aliyun.com/apache/hadoop/common/
    我用的hadoop2.6.5


1. 集群规划

Hadoop完全分布式集群搭建_第1张图片

2. 安装步骤

(1) 把hadoop安装包上传到服务器并解压

tar zxvf hadoop-2.6.5.tar.gz -C /home/hadoop/apps/

(2) 修改 hadoop-env.sh、mapred-env.sh、yarn-env.sh 这三个配置文件,添加JAVA_HOME

hadoop的配置文件在HADOOP_HOME/etc/hadoop/下

export JAVA_HOME=/usr/local/jdk1.8.0_73

(3) 修改 core-site.xml


    
        fs.defaultFS
        hdfs://node01:9000
    
    
        hadoop.tmp.dir
        /home/hadoop/hadoopdata
    

(4) 修改 hdfs-site.xml


    
    
        dfs.namenode.name.dir
        /home/hadoop/hadoopdata/name
    
    
        dfs.datanode.data.dir
        /home/hadoop/hadoopdata/data
    
    
    
        dfs.replication
        2
    
    
    
        dfs.secondary.http.address
        node02:50090
    

(5) 修改 mapred-site.xml

集群中只有mapred-site.xml.template,可以从这个文件进行复制

cp mapred-site.xml.template mapred-site.xml

    
        mapreduce.framework.name
        yarn
    

(6) 修改 yarn-site.xml



 yarn.resourcemanager.hostname
 node03


 yarn.nodemanager.aux-services
 mapreduce_shuffle


(7) 修改 slaves 配置文件,指定DataNode所在的节点

node02
node03
node04

(8) 把hadoop安装包分发给其他节点

[hadoop@node01 hadoop]# scp -r /home/hadoop/apps/hadoop-2.6.5 node02:/home/hadoop/apps/
[hadoop@node01 hadoop]# scp -r /home/hadoop/apps/hadoop-2.6.5 node03:/home/hadoop/apps/
[hadoop@node01 hadoop]# scp -r /home/hadoop/apps/hadoop-2.6.5 node04:/home/hadoop/apps/

(9) 给每个节点配置HADOOP_HOME环境变量

vim ~/.bash_profile

export HADOOP_HOME=/home/hadoop/apps/hadoop-2.6.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

(10) 在namenode主节点(node01)上格式化文件系统

[hadoop@node01 ~]# hdfs namenode -format

看到以下信息说明格式化成功:


Hadoop完全分布式集群搭建_第2张图片

(11) 在namenode主节点(node01)上启动hdfs系统

[hadoop@node01 ~]# start-dfs.sh

(12) 在resourcemanager所在节点(node03)上启动yarn

[hadoop@node03 ~]# start -yarn.sh

3. 验证集群是否搭建成功

(1) 查看进程是否全部启动

[hadoop@node01 ~]# jps
4000 NameNode
4281 Jps

[hadoop@node02 ~]# jps
3442 SecondaryNameNode
3289 DataNode
3375 NodeManager
3647 Jps

[hadoop@node03 ~]# jps
2945 DataNode
3019 ResourceManager
3118 NodeManager
3919 Jps

[hadoop@node04 ~]# jps
2899 DataNode
2984 NodeManager
3149 Jps

(2) 访问WEB页面

Hadoop完全分布式集群搭建_第3张图片
Hadoop完全分布式集群搭建_第4张图片

(3) 执行hdfs命令或运行一个mapreduce程序测试

# 上传一个文件
[hadoop@node01 ~]# hdfs dfs -put ./install.log /
# 执行一个mapreduce例子程序
[hadoop@node01 mapreduce]# pwd
/home/hadoop/apps/hadoop-2.6.5/share/hadoop/mapreduce
[root@node02 mapreduce]# hadoop jar hadoop-mapreduce-examples-2.6.5.jar pi 5 5

文件上传成功:


Hadoop完全分布式集群搭建_第5张图片

任务成功运行:


Hadoop完全分布式集群搭建_第6张图片
Hadoop完全分布式集群搭建_第7张图片

到这里,hadoop完全分布式集群就已经搭建成功了!

4. 如果hadoop集群需要重装,按以下步骤进行

(1) 删除每个机器中的hadoop日志

日志默认在HADOOP_HOME/logs下,如果不删除,日志文件会越积累越多,占用磁盘

(2) 删除原来的namenode和datanode产生的数据和文件

删除你配置的hadoop.tmp.dir这个目录,如果你配置了dfs.datanode.data.dirdfs.datanode.name.dir这两个配置,那么把这两个配置对应的目录也删除

(3) 再重新修改hadoop配置文件后,按照安装时的步骤进行即可

你可能感兴趣的:(Hadoop完全分布式集群搭建)