Hadoop三节点集群搭建-下篇

5. hadoop安装包

master结点上,将其解压到/home/zhm/hadoop下。

6. JDK/Hadoop路径配置

将JDK解压在/opt/jdk1.7.0*目录下。然后,修改/etc/profile文件,在最后添加:

然后,执行如下操作让配置立即生效,即:

该操作,要在每个结点上配置(其它结点的hadoop在后面会复制过来)。

若出现如下问题:

解决办法:

1)通过which java命令,发现java是/usr/bin下,而不是在咱自己放java的地方。即:

2)在profile文件中,修改PATH。将$JAVA_HOME/bin放在$PATH前。

7. hadoop配置文件(/hadoop/conf文件夹下 master结点)

       · core-site.xml

· hdfs-site.xml

· mapred-site.xml

· hadoop-env.sh

· masters

· salves

salve1

salve2

8. 向其它结点复制hadoop,即:

这样其它结点也就装好hadoop了。

9. 格式化namenode(master机)

执行:hadoop namenode –format,若出现如下错误:

则执行:hdfs namenode –format。若出现如下错误:

则:一般是etc/profile中配置jdkhadoop路径错误。如下位执行格式化:

   上面不出现错误,并有“successfully formatted”,则格式化正确。

10. 启动hadoop(master结点)

执行:start-all.sh或start-dfs.sh、start-mapred.sh。即:

出现“Temporary failure in name resolution”错误,即

可能原因:配置"/etc/hosts"局域网的DNS失效。

解决办法:1>其实,masters和salves文件有两种配置方式,即主机名方式和ip地址方式。即:

为保险起见,使用第二种。因为万一忘记配置"/etc/hosts"局域网的DNS失效,这样就会出现意想不到的错误,但是一旦IP配对,网络畅通,就能通过IP找到相应主机。

11. 验证hadoop是否成功启动

       方法1:使用jps命令。即:

若不能识别jps命令,即:

解决办法:jps命令在jdk下的bin目录下的一个可执行文件。通过在etc/profile下加一行:

如果出现错误:“no datanode stop, no tasknode stop”。原因:重新格式化hadoop会出现该错误。修改办法:格式化前,将三个结点中的namedata中的文件都删除掉。

方法二:使用“hadoop dfsadmin –report”命令。查看Hadoop集群的状态。即:

12. 网页查看集群

       http:192.10.5.76:50030

      http:192.10.5.76:50070

OK!

你可能感兴趣的:(Hadoop)