hadoop搭建之hadoop安装

1.下载hadoop ,推荐去官网下载:请点击    官网地址(我下载的是2.6.5版本的)


2,把它进行拷贝到linux中;


3,在usr下解压其压缩文件

 命令【tar -zxvf +文件名】


4,删除压缩包

命令【rm -rf +文件名】


5,将解压后的文件改名为“hadoop”

命令【mv +旧文件名+hadoop】


6,根据hadoop文件的位置编辑它的环境变量

命令【vim /etc/bashrc】

添加以下内容:

#set hadoop env
export HADOOP_HOME=/usr/hadoop
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH


补充:关于sbin的目录的配置可以,在任何位置启动hadoop

7,使其上面配置的文件生效

命令【source /etc/bashrc】

8,hadoop是否能够启动的重点来了,那就是文件的配置(/usr/hadoop/etc/hadoop/下的文件)

    • hadoop-env.sh :主要添加jdk的环境变量

 

export JAVA_HOME=/usr/java/jdk1.7.0_80

    • core-site.xml : 添加内容如下(小括号的内容不必填写,但所描述的目录需要自己建立)

     

               

               fs.defaultFS    

               hdfs://172.21.3.73:9000    (默认的HDFS路径)

           

        

                 hadoop.tmp.dir  

                /home/hadoopdir/tmp  (默认是NameNode、DataNode、JournalNode等存放数据的公共目录)

           

    •  hdfs-site.xml : 添加内容如下


 
     dfs.namenode.name.dir
     file:///home/hadoopdir/dfs/name
 



     dfs.namenode.data.dir
     file:///home/hadoopdir/dfs/data
 

 
     dfs.replication
     3(指定DataNode存储block的副本数量。默认值是3个,我们现在有4个DataNode,该值不大于4即可。)
 


     dfs.namenode.secondary.http-address
     172.21.3.73:50090
 


     dfs.webhdfs.enabled
     true
 



    • yarn-site.xml : 添加内容如下





                yarn.resourcemanager.hostname
                master.hadoop
   


                yarn.nodemanager.aux-services
                mapreduce_shuffle
   

 
                yarn.resourcemanager.address
                172.21.3.73:8032
   

   
                yarn.resourcemanager.scheduler.address
                172.21.3.73:8030
   

   
                yarn.resourcemanager.resource-tracker.address
                172.21.3.73:8031
   

   
                yarn.resourcemanager.admin.address
                172.21.3.73:8033
   


   
                yarn.resourcemanager.webapp.address
                172.21.3.73:8088
   



    • mapred-site.xml  (这个文件本身是没有的,cp   mapre-site.xml.template  mapre-site.xml)


   
                mapreduce.framework.name
                yarn
            true
   

   
                mapreduce.jobtracker.http.address
                172.21.3.73:50030
   

   
                mapreduce.jobhistory.address
                http://172.21.3.73:10020
   

   
                mapreduce.jobhistory.address
                172.21.3.73:19888
   

       
                mapred.job.tracker
                http://172.21.3.73:9001
       


9,在Slaves 里配置节点信息(只配置从节点就可以了)
Slave1.Hadoop
Slave2.Hadoop
Slave3.Hadoop

10,接下来就可以进行大胆的验证了,集群启动时需要格式化

命令【hadoop namenode -format】

11,启动集群

命令【start-all.sh】

12,可以在网页上看出集群的状态(当然 也可以直接:jps 查询)

两个网页【主节点ip:50070】,【主节点ip; 9000】


12,当然中间会出现很多问题,接下来我会慢慢补充的。。。。。!


你可能感兴趣的:(——Hadoop集群)