hadoop分别启动或关闭守护进程(开启进程流程)

分别启动守护进程   (被[ ]包起来的可省略)
-----------
1.启动namenode
    $>hadoop-daemons.sh   [--config ~/soft/hadoop/etc/hadoop]   start namenode
2.启动datanode
    $>hadoop-daemons.sh   [--config ~/soft/hadoop/etc/hadoop]   start datanode
3.启动secondarynamenode
    $>hadoop-daemons.sh   [--config ~/soft/hadoop/etc/hadoop]   start secondarynamenode


分别停止守护进程
-----------
1.停止namenode
    $>hadoop-daemons.sh   [--config ~/soft/hadoop/etc/hadoop]   stop namenode
2.停止datanode 
    $>hadoop-daemons.sh   [--config ~/soft/hadoop/etc/hadoop]   stop datanode
3.停止secondarynamenode
    $>hadoop-daemons.sh   [--config ~/soft/hadoop/etc/hadoop]   stop secondarynamenode

注:hadoop开启进程时默认寻找$HADOOP_HOME/etc/hadoop以寻找配置文件
    $>hadoop-daemon.sh --config ~/soft/hadoop/etc/hadoop start namenode[或datanode,secondarynode]
         --config 寻找的就是配置文件,如果把etc下的hadoop改名成hadoop-copy,想要开启进程:
             1.修改配置文件,配置一个HADOOP_CONF_DIR变量指向~/soft/hadoop/etc/hadoop-copy
             2.临时导入:export HADOOP_CONF_DIR=~/soft/hadoop/etc/hadoop-copy
             3.给etc/hadoop-copy创建一个软连接hadoop,ln -s hadoop-copy hadoop,系统可以自己找到配置文件


hadoop start-dfs.sh 的执行流程:
------
【start-dfs.sh】:

        -->【hdfs-config.sh】(说明:加载各种配置信息)
       -->【hadoop-daemons.sh】(说明:执行slaves和daemon)
       -->【hadoop-daemon.sh】(说明:根据command调用HDFS。执行相关操作)
       -->【hdfs】(说明:执行相关操作,加载CLASS)
       -->【调用java底层源代码】(说明:执行相关class文件的主函数)

你可能感兴趣的:(知识总结)