【spark】spark启动报错“spark RpcEnv already stopped“

原因:
write时候没添加 awaitTermination() 造成 rpcEnv提前结束了。

    fakeDf.writeStream
      .format("console")
      .outputMode("append")
      .trigger(Trigger.Continuous("3 second"))
      .start()
      .awaitTermination()

你可能感兴趣的:(spark)