Spark: 在master节点开启worker进程(将master当做slave节点来使用)

1. 进入master节点:spark2/conf

然后:vi slaves
Spark: 在master节点开启worker进程(将master当做slave节点来使用)_第1张图片
对其他的slave节点进行同样的操作。

2. 开启spakr集群用spark-submit命令提交jar:

Spark: 在master节点开启worker进程(将master当做slave节点来使用)_第2张图片

3. jar成功提交后显示:开启的主节点和从节点:

Spark: 在master节点开启worker进程(将master当做slave节点来使用)_第3张图片

你可能感兴趣的:(spark,大数据,分布式)