本地虚拟机搭建Hadoop集群

准备工作

  1. jdk1.8
  2. hadoop2.7
  3. VMware 

一、新建三台虚拟机(使用centos 7)

1、重命名hostname,分别命名为namenode、datanode2、datanode3

建立主机名与IP地址映射,打开编辑:vi /etc/hosts

本地虚拟机搭建Hadoop集群_第1张图片

2、配置静态ip地址,打开配置文件:vi /etc/sysconfig/network-scripts/ifcfg-ens33 

本地虚拟机搭建Hadoop集群_第2张图片

保存退出重启网卡:systemctl restart network ,查看ip:ip addr

3、通过xftp上传hadoop-2.7.7.tar.gz、jdk-8u11-linux-x64.tar.gz到目录/user/local/software下

在/user/local/software目录下分别使用命令:tar -xvf jdk-8u11-linux-x64.tar.gz、tar -xvf hadoop-2.7.7.tar.gz 解压文件

本地虚拟机搭建Hadoop集群_第3张图片

4、配置JDK1.8环境,开发配置文件:vi /etc/profile

本地虚拟机搭建Hadoop集群_第4张图片

保存退出,允运行:source /etc/profile  查看JDK:java -version

 二、建立ssh无密码登录本机

 1、查看是否安装shh服务。

2、配置ssh免密码登陆

      a、输入命令:ssh-keygen -t rsa,然后一直回车回车...

本地虚拟机搭建Hadoop集群_第5张图片

      秘钥生成后在~/.ssh/目录下,有两个文件id_rsa(私钥)和id_rsa.pub(公钥)

本地虚拟机搭建Hadoop集群_第6张图片

       b、把公钥复制到authorized_keys,并且授权:chmod 600 authorized_keys

         把datanode1与datanode2的公钥复制到namenode的authorized_keys上。

         把namenode节点下的authorized_keys文件发送到datanode1与datanode2的~/.shh目录下:

         scp ~/.ssh/authorized_key root@datanode1:~/.ssh/

本地虚拟机搭建Hadoop集群_第7张图片

 

                        在datanode1与datanode2分别查看是否存在authorized_key文件,存在则成功。验证是否免密登陆:ssh datanoe1

本地虚拟机搭建Hadoop集群_第8张图片

 

 三、关闭防火墙

四、安装hadoop并配置环境变量

hadoop集群每个节点的配置都需要一致,所以我们可以在一个节点配置为再发送到其他节点

1、在/usr/local/software目录下解压hadoop-2.7.7.tar.gz

2、配置环境变量: vi /etc/profile,添加如下配置,验证是否配置成功:hadoop version

本地虚拟机搭建Hadoop集群_第9张图片

3、新建三个文件夹,在/user/local/software/hadoop-2.7.7 目录,新建dfs/name、dfs/data、temp

本地虚拟机搭建Hadoop集群_第10张图片

五、配置hadoop配置文件

接下来配置/usr/local/software/hadoop-2.7.7/etc//hadoop/目录下的七个文件

1、配置hadoop_env.sh,修改JAVA_HOME路径。

2、配置yarn_env.sh,修改JAVA_HOME路径

本地虚拟机搭建Hadoop集群_第11张图片

3、配置slaves,删除localhost,添加datanode1、datanode2

4、配置core-site.xml。


                fs.defaultFS
                hdfs://namenode:9000
     

     
                io.file.buffer.size
                131072
                文件块大小 128M
       

       
                hadoop.tmp.dir
                file:/usr/local/software/hadoop-2.7.7/temp
    namenode上本地的hadoop临时文件夹
       

       
                hadoop.proxyuser.hduser.hosts
                *
       

       
                hadoop.proxyuser.hduser.groups
                *
       

本地虚拟机搭建Hadoop集群_第12张图片

5、配置hdfs-site.xml


                dfs.namenode.secondary.http-address
                namenode:9001
       

       
                dfs.namenode.name.dir
                file:/usr/local/software/hadoop-2.7.7/dfs/name
       

       
                dfs.namenode.data.dir
                file:/usr/local/software/hadoop-2.7.7/dfs/data
       

       
                dfs.replication
                1
       

       
                dfs.webhdfs.enabled
                true
       

 

本地虚拟机搭建Hadoop集群_第13张图片

6、配置mapred-site.xml,默认没有这个文件需要拷贝一份:cp mapred-site.xml.template mapred-site.xml

 
                mapreduce.framework.name
                yarn
       

         
                mapreduce.jobhistory.address
                namenode:10020
       

         
                mapreduce.jobhistory.webapp.address
                namenode:19888
       

本地虚拟机搭建Hadoop集群_第14张图片

7、配置yarn-site.xml


                yarn.nodemanager.aux-services.mapreduce.shuffle.class
                org.apache.hadoop.mapred.shuffleHandler
       

         
                yarn.resourcemanager.address
                namenode:8032
       

       
                yarn.resourcemanager.scheduler.address
                namenode:8030
       

       
                yarn.resourcemanager.resource-tracker.address
                namenode:8031
       

       
                yarn.resourcemanager.admin.address
                namenode:8033
       

       
                yarn.resourcemanager.webapp.address
                namenode:8088
       

本地虚拟机搭建Hadoop集群_第15张图片

结束,把所有的配置都发送一份至datanode1和datanode2

6、启动hadoop集群

格式化namenode节点,在/usr/local/software/hadoop-2.7.7目录下:./bin/hdfs namenode -format

本地虚拟机搭建Hadoop集群_第16张图片

启动hadoop:./sbin/start-dfs.sh

本地虚拟机搭建Hadoop集群_第17张图片

查看是否启动:jps

hadoop控制台地址http://192.168.2.177:50070

你可能感兴趣的:(大数据)