Spark 启动脚本——sbin/slaves.sh

1. 如果参数小于1,返回。格式:slaves.sh [--config <conf-dir>] command...

2. 执行sbin/spark-config.sh,加载基本环境变量

3. 设置HOSTLIST为变量$SPARK_SLAVES的值

4. 如果存在,获取--config参数,即配置文件目录,目录不存在则返回

5. 执行conf/spark-env.sh

6. 如果HOSTLIST为空,则设置为conf/slaves

7. 设置ssh参数为“-o StrictHostKeyChecking=no ”

8. 加载$HOSTLIST文件中的列表地址,使用ssh登录并执行脚本参数传入的命令command

9. sleep或者直接wait保证命令执行结束 

 

http://www.cnblogs.com/hujunfei/p/3624459.html

你可能感兴趣的:(Spark 启动脚本——sbin/slaves.sh)