43.org.apache.spark.sql.AnalysisException: Can not create the managed table The associated location

在写入Hive表时,表已经删除,但文件还在,

 

参考

https://docs.microsoft.com/zh-cn/azure/databricks/kb/jobs/spark-overwrite-cancel

将标志设置 spark.sql.legacy.allowCreatingManagedTableUsingNonemptyLocation 为 true 

.set("spark.sql.legacy.allowCreatingManagedTableUsingNonemptyLocation","true")

重新写入该表即可。

 

 

此贴来自汇总贴的子问题,只是为了方便查询。

总贴请看置顶帖:

pyspark及Spark报错问题汇总及某些函数用法。

https://blog.csdn.net/qq0719/article/details/86003435

你可能感兴趣的:(spark,hadoop,hdfs)