Hadoop 集群搭建

主要环境:

      CentOS6.4

    JDK 1.6

    Hadoop 1.2.1

使用三台机器进行搭建。

    Master(NameNode、SecondaryNameNode、JobTracker):10.0.0.13

    Slave(DataNode、TaskTracker):10.0.0.15

    Slave(DataNode、TaskTracker):10.0.0.16

1.三台机器都配置/etc/hosts文件

    Hadoop 集群搭建_第1张图片

2.配置ssh免密码连接,在每台机器上均运行ssh-keygen -t rsa ,之后将每台机器生成的

id_rsa.pub合并为authorized_keys,并复制到每台机器上    

        Hadoop 集群搭建_第2张图片

        

3.配置hadoop目录下的conf/hadoop-env.sh 中的java环境变量

    Hadoop 集群搭建_第3张图片

4.修改hdfs-site.xml 修改hdfs中数据块要复制多少份

    Hadoop 集群搭建_第4张图片

5.修改mapred-site.xml 配置jobtracker

    Hadoop 集群搭建_第5张图片

6.修改core-site.xml 指定数据目录(使用mkdir创建/usr/hadoop/tmp目录)

    Hadoop 集群搭建_第6张图片

7.修改masters和slaves

    Hadoop 集群搭建_第7张图片

8.使用scp命令将hadoop目录复制到各个节点

9.并在每个节点配置hadoop环境变量(编辑/etc/profile 立即生效source /etc/profile

    Hadoop 集群搭建_第8张图片

10.格式化

    Hadoop 集群搭建_第9张图片

11.启动hadoop运行start-all.sh

    Hadoop 集群搭建_第10张图片

12.最后使用jps验证是否启动相应java进程

    Master:

    

        

        Slave:

        



你可能感兴趣的:(hadoop,完全分布式安装)