Spark报错 Failed to send RPC xxx to/ip:43074 java.nio.channels.ClosedChannelException

1.美图

2.背景

是这样的,我写了一个spark程序,然后,运行的时候,我kiill yarn掉这个程序,然后发现程序报个错然后继续运行了。
我在页面点击任务停止就没事,我页面点击是调用yarn api去杀死任务,直接黑窗口调用kill 就会报错。

[deploy@cdh ~]$ yarn application --list
19/12/17 13:47:39 INFO client.RMProxy: Connecting to ResourceManager at cdh.xxx.xx.local/xxx:8032
Total number of applications (application-types: [] and states: [SUBMITTED, ACCEPTED, RUNNING

你可能感兴趣的:(大数据-spark)