分析启动shell脚本

  1. 查看start-all.sh脚本

    1.1 此shell脚本仅仅在主节点执行运行,打开start-all.sh,我们可以看到这样一行注释

    #Start all hadoop daemons.  Run this on master node.

    1.2 如下图,我们可以看到,首先启动的是hdfs文件系统,然后才启动mapreduce.

        

  1. 1.3  从上面,可以看到启动hdfs文件系统是调用的start-dfs.sh,而启动mapreduce则调用的是start-mapred.sh.归根节点也可以看成是分别启动的.

  2. 查看start-dfs.sh

    2.1  此脚本也是运行在hdfs文件系统主这节点上面,我们打开其中的脚本执行文件,可以看到下面这句.

    # Run this on master node.

    2.2  看下面图中两行注释所示,表示,如果datanode在namenode之前启动,将会在datanode日志中有一些连接namenode的错误信息.因为datanode接不到namenode,而下面三项则分别表示namenode,datanode和secondarynamenode三项守护进程的启动,也表明了hdfs守护进程的顺序.同样的也是和start-all.sh一样的,他也是分别调用不同的启动脚本,来启动固定的守护进程.其中的最后一项启动secondarynamenode节点有点不同,它会指定在那些机器上面的文件系统辅助节点启动.

        分析启动shell脚本_第1张图片

其它的启动脚本的也都差不多,就不多说了.hadoop启动方式大概也就都是这样.自己可以去看看相关的启动脚本.

你可能感兴趣的:(分析启动shell脚本)