hadoop(一)--双节点集群搭建

一、环境准备

     虚拟机:2台,centos6.5 x86_64系统

          hadoopNode01   192.168.9.11

          hadoopNode02   192.168.9.12 

     jdk:jdk-7u80-linux-x64.tar.gz (7系列的最后一个版本)

      hadoop: hadoop-2.7.6.tar.gz   (2.7系列的最后一个版本)

      远程客户端: secureCRT软件  SecureCRTPortable.zip(绿色版) 

(百度云盘  链接:https://pan.baidu.com/s/14RwoIsy8VvGQ55fWScahbw 密码:cquv) 


二、开始安装CentOS

   注意:安装时,可以先安装好一台虚拟机,然后再使用vmware的克隆功能克隆出一个一模一样的vm机(克隆后的vm机需要修改下ip和mac地址)

     下面开始正式安装步骤:

      1、安装vm机,安装过程中创建一个普通用户 hadoop,密码hadoop。语言:简体中文,地区:亚洲/上海。

      2  、配置ip 网关,主机名等

          ip 、掩码 、网关 为: 192.168.9.11 255.255.255.0  192.168.9.2  

            sudo vi /etc/sysconfig/network-script/ifcfg-eth0    ,修改内容如下:

DEVICE=eth0
HWADDR=00:0C:29:1D:AF:54
TYPE=Ethernet
UUID=cc7dcfc2-c331-440e-a903-3aca72fb22d6
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.9.11
NETMASK=255.255.255.0
GATEWAY=192.168.9.2

DNS1=114.114.114.114
DNS1=8.8.8.8

service network restart   重启网络服务使之生效

修改主机名   hostname hadoopNode01

           sudo vi    /etc/sysconfig/network  ,修改内容如下

NETWORKING=yes
#HOSTNAME=localhost.localdomain
HOSTNAME=hadoopNode01
NTPSERVERARGS=iburst

3、 修改host文件 ,vi  /etc/hosts 修改如下:

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.9.11 hadoopNode01
192.168.9.12 hadoopNode02

reboot 修改主机名需要重启下,使之生效。

 4 、 安装jdk         (安装路径 /home/hadoop/app/jdk1.7.0_80)

      cd  installpkg/

     tar -zxvf   jdk-7u80-linux-x64.tar.gz    -C  ../app/

     sudo vi /etc/profile 

     

JAVA_HOME=/home/hadoop/app/jdk1.7.0_80
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
 
PATH=$PATH:$JAVA_HOME/bin
export JAVA_HOME
export PATH
export CLASSPATH

    su root 

    source /etc/profile  使之生效

   

 三、安装hadoop-2.7.6

       cd   installpkg/

       tar -zxvf hadoop-2.7.6.tar.gz  -C  ../app/

       修改hadoop的etc中的几个配置文件。 

  1  、hadoop-env.sh 修改

       vi hadoop-env.sh   ,直接设置JAVA_HOME 环境变量的值

         exprt JAVA_HOME =/home/hadoop/app/jdk.1.7.0_80 

2、 core-site.xml 配置文件修改


  
  
        fs.defaultFS
        hdfs://hadoopNode01:9000
  

   
        hadoop.tmp.dir
        /home/hadoop/app/hadoop-2.7.6/tmp
    

 cd  /home/hadoop/app/hadoop-2.7.6 

 mkdir tmp 

2、hdfs-site.xml 配置文件修改 


      
        
                dfs.replication
                2
        

3、mapred-site.xml 配置文件修改

    mv mapred-site-template.xml   mapred-site.xml 

    vi mapred-site.xml 


   
   
        mapreduce.framework.name
        yarn
   

4、 修改yarn-site.xml 配置文件 




    
   
        yarn.resourcemanager.hostname
        hadoopNode01
    
   
   
        yarn.nodemanager.aux-services
        mapreduce_shuffle
   

5 修改 slaves配置文件

hadoopNode01
hadoopNode02

6 、修改/etc/profile 文件 ,加上hadoop环境变量。


JAVA_HOME=/home/hadoop/app/jdk1.7.0_80
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

HADOOP_HOME=/home/hadoop/app/hadoop-2.7.6

PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export JAVA_HOME
export HADOOP_HOME

export PATH
export CLASSPATH
    

  四、克隆hadoopNode01虚拟机 到hadoopNode02虚拟机

         ( 克隆时选择克隆当前状态、完整克隆)

       克隆完成后,需要修改下新克隆出的机器(hadoopNode02)的ip和mac地址 。

       再重启网络服务 service network restart,

       修改主键名hostname   ,重启虚拟机。

五、 配置hadoopNode01、hadoopNode02 之间相互的免密登录。

      hadoopNode01 上:

       ssh-keygen  -t rsa        

       ssh-copy-id  hadoopNode01 

       ssh-copy-id  hadoopNode02


      hadoopNode02 上:

       ssh-keygen  -t rsa        

       ssh-copy-id  hadoopNode01 

       ssh-copy-id  hadoopNode02

六、启动hdfs 集群

       hadoopNode01 上执行:

       start-dfs.sh      此命令会启动本机上namenode 、datanode、secondarynamenode 和hadoopNode02

上的datanode 

     尝试访问 http://192.168.9.11:50070   查看hdfs集群    . 

       hadoop  fs -put  a.txt   /      测试上传一个文件到hdfs根路径上 

        hadoop  fs -ls /    查看 hdfs上根路径上的文件

        hadoop  fs -get /a.txt   下载hdfs根路径的文件


   hadoop(一)--双节点集群搭建_第1张图片

web网页上 Browse Directory 中也可下载hdfs中的文件(能下载成功)

hadoop(一)--双节点集群搭建_第2张图片

 七、启动yarn集群

       hadoopNode01 上执行: 

      start-yarn.sh    此命令会先启动本地的resourcemanager,在远程到hadoopNode02上启动nodemanager。

      http://192.168.9.11:8088/   

      hadoop(一)--双节点集群搭建_第3张图片

      测试mapreduce 程序 (mapreduce程序打成jar包提交到yarn中执行)

    hadoop jar  hadoop-mapreduce-examples-2.7.6.jar   pi 5 5    #计算圆周率 


       


          



你可能感兴趣的:(hadoop(一)--双节点集群搭建)