Lost task 0.0 in stage 0.0

今天来更新一个错误,下面是我的解决办法,

将所有的mysql驱动包,放到集群每个节点下面,

将程序的连接jdbc的地址从localhost改为安装了mysql的节点的地址,所有的SparkConf属性只设置setAppName,剩下的命令提交,然后清除项目缓存,多清几次,然后打包,集群运行!!!!

希望我的错误对你有所帮助

你可能感兴趣的:(linux,scala,spark)